Negociação quantitativa - página 7

 

Martin Scholl (Universidade de Oxford): "Estudando Ecologia de Mercado Usando Modelos Baseados em Agentes"



Martin Scholl (Universidade de Oxford): "Estudando Ecologia de Mercado Usando Modelos Baseados em Agentes"

Martin Scholl, pesquisador da Universidade de Oxford, mergulhou no estudo da ecologia de mercado usando modelos baseados em agentes. Ao contrário das abordagens tradicionais que dependem de suposições como a hipótese do mercado eficiente, Scholl discorda da teoria do equilíbrio das expectativas racionais comumente empregada nas finanças neoclássicas. Ele acredita que essa teoria exige que todos os participantes tenham uma perfeita compreensão do mundo real, o que é irreal, dadas as limitações cognitivas tanto dos investidores de varejo quanto dos gestores de fundos. Em vez disso, ele defende a aplicação de ferramentas da biologia para analisar dados financeiros do mundo real, oferecendo uma nova perspectiva sobre a compreensão dos mercados financeiros.

Para explorar a ecologia de mercado, Scholl compara as estratégias de investimento às espécies em biologia, com investidores individuais representando indivíduos de uma determinada espécie. A riqueza agregada investida usando uma estratégia particular é comparável à abundância ou tamanho total da população daquela espécie. Em um modelo de brinquedo de um jogo de investimento, Scholl apresenta um cenário simplificado onde os agentes podem optar por deixar sua riqueza em uma conta do mercado monetário ou investir em uma ação que pague dividendos. Este modelo permite o exame de várias estratégias de investimento e objeções ao pressuposto neoclássico da racionalidade perfeita.

Scholl identifica diferentes estratégias de investimento empregadas em modelos baseados em agentes para estudar ecologia de mercado. A primeira é uma estratégia perfeitamente racional, onde o valor patrimonial líquido é dividido entre ações e dinheiro. Um investidor em valor estima a taxa de crescimento do dividendo para fazer previsões futuras e entender o preço futuro da ação. A segunda estratégia envolve seguidores de tendências que analisam preços recentes e extrapolam tendências. A terceira estratégia abrange os noise traders que entram no mercado para atender às necessidades de liquidez, mas não são sensíveis ao preço em uma escala de tempo curta. No entanto, seu processo de ruído de reversão à média está conectado ao valor fundamental em uma escala de tempo longa.

Para simular os mecanismos de mercado e estudar a ecologia do mercado, Scholl e sua equipe utilizam modelos baseados em agentes com a ajuda de pacotes de software. Eles garantem a comparabilidade entre diferentes execuções do modelo, fixando dotações e dividindo as dotações iniciais entre indivíduos de diferentes espécies, acompanhando a participação relativa. As simulações duram 200 anos, permitindo observar o retorno médio anual de cada espécie. Curiosamente, eles descobriram que cada estratégia tem pelo menos uma região onde é mais lucrativa, independentemente de sua abundância.

Em seus experimentos, Scholl examina o comportamento dos seguidores de tendências e o impacto do reinvestimento dos lucros. Ele observa que o mercado passa a maior parte do tempo em uma região instável e caótica com grandes outliers, resultando em ruído pontilhado. Quando os investidores reinvestem seus lucros, as trajetórias flutuam em torno de um ponto central identificado, mas não convergem totalmente para ele. Aumentar a concentração de seguidores de tendência leva a uma maior volatilidade nos retornos. Scholl atribui o rápido afastamento dos seguidores de tendências à racionalidade dos investidores e à autocorrelação positiva no processo de dividendos.

Scholl explica que modelos baseados em agentes podem ser empregados para construir uma matriz de comunidade financeira, semelhante às equações Volterra de predador e presa usadas em biologia. O retorno de uma estratégia particular é igualado ao tamanho da população, e a sensibilidade do retorno às mudanças no tamanho da população representa a matriz da comunidade. No mercado financeiro, a competição entre diferentes estratégias surge quando os preços se desviam dos pontos de equilíbrio. Scholl enfatiza que os mercados financeiros exibem dependência de densidade, tornando as interações entre espécies mais complexas do que em sistemas biológicos. Essa dependência de densidade leva a cenários como aumentos de preços semelhantes a bolhas, mas reconhece que tais situações não são realistas.

No contexto da ecologia de mercado, Scholl discute as implicações práticas de suas descobertas. Ele apresenta um modelo linear que usa a abundância de espécies para descrever as relações entre diferentes tipos de predadores, impactando assim os resultados do mercado. Essa abordagem destaca a natureza multidimensional dos investimentos e demonstra a importância de dimensionar adequadamente as estratégias para evitar perdas ou tornar-se presa em mercados financeiros altamente dependentes da densidade. Ele desafia a visão tradicional de que os preços das ações refletem todas as informações fundamentais disponíveis e apresenta os mercados financeiros como sistemas complexos influenciados por várias condições.

Scholl detalha ainda mais o uso de um modelo linear simples dentro de modelos baseados em agentes para estudar a ecologia do mercado. Ao analisar as participações e a abundância relativa das atividades de mercado, ele descobriu que essa abordagem superava os modelos derivados de departamentos que pressupõem racionalidade e traduzem os fundamentos automaticamente. No entanto, ele reconhece as limitações de seu modelo e enfatiza a necessidade de mais pesquisas para aumentar seu realismo. Um aspecto que ele aborda é a sensibilidade do modelo a diferentes receitas e definições, principalmente em relação ao acompanhamento de tendências. Embora os dividendos desempenhem um papel significativo em seu modelo, a incorporação de elementos mais realistas para os mercados financeiros do mundo real exigiria etapas adicionais.

Sobre a adaptabilidade das crenças dos agentes em seu modelo, Scholl aponta que as operações de mercado muitas vezes envolvem gestores de fundos seguindo estratégias traçadas em prospectos por períodos prolongados. Isso indica uma tendência para processos mecânicos de alocação de ativos. Como resultado, Scholl tende a modelar menos comportamento adaptativo e menos inteligência. No entanto, ele destaca que outros pesquisadores de seu grupo na Universidade de Oxford estão explorando ativamente a aplicação de algoritmos evolutivos para alterar parâmetros e até inovar novas estratégias.

A pesquisa de Martin Scholl se concentra no estudo da ecologia de mercado usando modelos baseados em agentes. Ele desafia as teorias e suposições financeiras tradicionais aplicando conceitos da biologia para entender melhor os mercados financeiros. Ao comparar estratégias de investimento com espécies em biologia, analisando diferentes estratégias e simulando mecanismos de mercado, Scholl revela a complexidade dos mercados financeiros e a interação entre várias estratégias. Suas descobertas sugerem que os mercados financeiros são altamente dependentes da densidade, e o dimensionamento adequado das estratégias de investimento é crucial para evitar perdas e se tornar uma presa nesse ecossistema dinâmico. O trabalho de Scholl fornece informações valiosas sobre a natureza dos mercados como sistemas complexos, contrastando com a visão tradicional de que os preços das ações refletem apenas informações fundamentais.

  • 00:00:00 Martin Scholl da Universidade de Oxford discute seu estudo sobre ecologia de mercado usando modelos baseados em agentes. Ele explica que, em vez de se concentrar nas suposições comuns, como a hipótese do mercado eficiente, ele questiona a teoria do equilíbrio das expectativas racionais usada nas finanças neoclássicas, pois exige que o entendimento de todos os participantes corresponda ao mundo real. Ele também revela que existem mais de 300 modelos de fatores na literatura financeira, o que torna difícil determinar o melhor a ser usado, e há limites físicos para a capacidade cognitiva de investidores de varejo e gestores de fundos. Além disso, ele discute a importância de aplicar ferramentas da biologia a dados do mundo real para entender melhor os mercados financeiros.

  • 00:05:00 Martin discute como estudar ecologia de mercado pode ser feito usando modelos baseados em agentes. Ele explica que as estratégias de investimento podem ser comparadas às espécies em biologia, com investidores individuais correspondendo a indivíduos de uma determinada espécie. A riqueza agregada investida usando uma estratégia particular é a abundância ou o tamanho total da população dessa espécie. Scholl apresenta um modelo de brinquedo de um jogo de investimento, onde os agentes têm a opção de deixar sua riqueza em uma conta do mercado monetário ou investir em uma ação que paga dividendos. O modelo funciona com uma ação, que é uma suposição simplificadora que permite preços de liquidação únicos na maioria das vezes. Scholl também aborda a suposição neoclássica de um investidor racional perfeito e destaca as objeções a essa abordagem.

  • 00:10:00 Martin Scholl explica o conceito de ecologia de mercado usando metáforas da biologia. Ele divide os agentes no mercado de acordo com suas razões de participação e introduz a função de excesso de demanda como forma de definir uma estratégia. Ele explica como uma função de sinal é usada no processo de investimento e como diferentes fundos de investimento tendem a se especializar em coisas diferentes com base na aquisição de informações e análises. A divisão de estratégias é crucial em mercados em evolução, onde é benéfico se especializar em um determinado nicho para otimizar algo.

  • 00:15:00 Martin Scholl discute as diferentes estratégias usadas em modelos baseados em agentes para estudar ecologia de mercado. A primeira estratégia é uma estratégia perfeitamente racional em que o valor líquido do ativo é dividido entre ações e dinheiro. Um investidor em valor estima a taxa de crescimento do dividendo para fazer uma previsão, ajudando a entender o preço da ação no futuro. A segunda estratégia é baseada em seguidores de tendências que analisam os preços recentes e extrapolam essas tendências. Por fim, o modelo inclui operadores de ruído que entram no mercado para atender às necessidades de liquidez, mas não são sensíveis ao preço, de modo que seu sinal parece aleatório em uma escala de tempo curta. No entanto, seu processo de ruído de reversão média está conectado ao valor fundamental em uma escala de tempo longa e retornará à média lentamente, conforme estimado por Buscher e colegas.

  • 00:20:00 Martin explica como eles simulam mecanismos de mercado usando modelos baseados em agentes, o que lhes permite estudar a ecologia do mercado. Devido à multiplicidade de soluções possíveis, é difícil tratar analiticamente a simulação. Portanto, eles usam um pacote de software para simular os diferentes mecanismos de mercado. Eles fixam as dotações para garantir que os resultados sejam comparáveis entre as diferentes execuções do modelo. Eles também dividem as dotações iniciais entre os indivíduos de diferentes espécies e acompanham a parcela relativa. Eles rodam a simulação por 200 anos e observam o retorno anual médio de cada uma das espécies. Eles observam que, para as três estratégias, há pelo menos uma região onde elas são mais rentáveis, mesmo que essa região não seja onde a espécie é mais abundante.

  • 00:25:00 Martin Scholl da Universidade de Oxford discute um experimento envolvendo seguidores de tendências, onde os preços divergem dos valores fundamentais, levando a enormes lucros e perdas devido à realização aleatória do processo de dividendos e ruído introduzido. O sistema passa a maior parte de seu projeto em uma região instável e caótica, com grandes valores discrepantes que criam ruído pontilhado. No segundo experimento, os investidores foram autorizados a reinvestir os lucros, e as trajetórias foram traçadas em um simplex, com a riqueza redistribuída, mas convergiram fracamente para o ponto central identificado, flutuando de um lado para o outro. O sistema tende a se localizar em uma região ao redor do ponto fixo atrativo identificado, e o preço de fechamento do mercado é anunciado a cada dia de negociação, afetando a avaliação dos traders e dos preços.

  • 00:30:00 Martin explica as diferentes linhas de fluxo obtidas por meio de experimentos de Monte Carlo ao analisar um ponto fixo em um sistema com seguidores de tendência, investidores em valor e operadores de ruído. A espessura das linhas indica a quantidade de riqueza sendo redistribuída entre as estratégias anualmente, o que mostra como uma abundância de seguidores de tendências pode causar perdas maciças no sistema. Scholl continua destacando que o crowding funciona de maneira diferente para seguidores de tendências do que para investidores em valor, e que aumentar a concentração de seguidores de tendências leva a uma maior volatilidade nos retornos. A causa raiz do motivo pelo qual o sistema se afasta rapidamente dos seguidores de tendências é a racionalidade dos investidores e a autocorrelação positiva no processo de dividendos.

  • 00:35:00 Martin Scholl explica como os modelos baseados em agentes podem ser usados para estudar a ecologia do mercado e como a matriz da comunidade financeira pode ser construída. Scholl faz uma analogia com as equações Volterra de predador e presa usadas na dinâmica populacional em biologia, que são usadas para descrever a dinâmica de diferentes populações, ou seja, como diferentes espécies interagem com base no tamanho da população. Ele observa que esse conceito também pode ser aplicado aos mercados financeiros, onde o retorno de uma estratégia específica seria considerado como o tamanho da população e a sensibilidade do retorno de uma espécie a mudanças no tamanho da população representaria a matriz da comunidade.

  • 00:40:00 Martin da Universidade de Oxford explica como as espécies na ecologia do mercado financeiro estão competindo consigo mesmas no ponto de equilíbrio, já que todas as entradas diagonais são negativas e todas as entradas positivas são positivas. O sistema é estável porque o ponto fixo é estável com uma matriz de comunidade que é robusta contra certas mudanças na população. No entanto, quando o mercado se afasta muito dos pontos de equilíbrio, começa a haver competição entre seguidores de tendências e investidores em valor quando há poucos investidores em valor. A dependência da densidade torna as interações entre as espécies mais complexas do que as biológicas e é muito mais comum nas finanças do que na natureza. Na região instável onde os preços divergem, os seguidores de tendências se beneficiam de outros seguidores de tendências e o preço continua subindo como uma bolha, mas esse cenário é bastante irreal.

  • 00:45:00 Martin Scholl discute os benefícios dos seguidores de tendências em um curto espaço de tempo, pois eles podem se beneficiar de seguidores de tendências que são um pouco mais lentos do que eles porque podem vender no topo ou pelo menos não antes que o preço caia totalmente. No entanto, neste modelo, os seguidores da tendência são simples e operam na mesma escala de tempo, independentemente da estratégia individual. Scholl também discute como um fundo passivo ou um rastreador de índice pode ser representado como um fundo que tem uma alocação consensual de riqueza para ativos específicos. Uma proporção maior de indexadores tornaria o sistema mais estável e amorteceria todo o sistema. Por fim, Scholl observa que computou todas essas informações para entender as relações binárias entre as espécies, resultando em algo chamado teia alimentar.

  • 00:50:00 Martin discute o estudo da ecologia de mercado usando modelos baseados em agentes. Scholl explica como os nós são espécies diferentes e as arestas são as interações entre eles. Usando o nível trófico, eles podem determinar qual espécie tem o menor nível de lucro, o que significa que não ataca outras espécies, e qual tem o maior nível de tráfego, o que significa que ataca todas as outras espécies, tornando-se o predador de ponta. Scholl explica como os níveis de tráfego mudam dramaticamente dependendo da densidade e como cada grupo segue um desconto de dividendos, com o investidor de valor atacando os operadores de ruído e o seguidor de tendências explorando correlações.

  • 00:55:00 Martin Scholl explica as implicações práticas de estudar ecologia de mercado usando modelos baseados em agentes. Um experimento baseado em qualidade de mercado e precificação incorreta mostra que um modelo linear simples usando a abundância de espécies funciona muito bem para descrever a relação entre diferentes tipos de predadores, afetando os resultados do mercado. O modelo desenvolvido permite observar como os investimentos são multidimensionais, destacando que as estratégias têm diferentes impactos na qualidade do mercado. De acordo com o estudo de Scholl, os mercados financeiros são altamente dependentes da densidade, o que significa que os investidores devem dimensionar sua estratégia adequadamente para evitar incorrer em perdas ou se tornarem presas. Esta abordagem permite descrever os mercados como um sistema complexo influenciado por várias condições, ao contrário das finanças tradicionais, onde se acredita que os preços das ações refletem todas as informações fundamentais disponíveis.

  • 01:00:00 Nesta seção do vídeo, Martin Scholl discute o uso de um modelo linear simples para estudar ecologia de mercado usando modelos baseados em agentes. Ao observar as participações e a abundância relativa das atividades do mercado, ele descobriu que essa abordagem oferecia uma previsão melhor do que usar modelos derivados de departamentos que assumem a racionalidade e traduzem automaticamente os fundamentos. Ele também discute as limitações de seu modelo e a necessidade de mais pesquisas para torná-lo mais realista. Uma questão que ele aborda é sobre a sensibilidade do modelo a diferentes receitas e definições, principalmente no que diz respeito ao acompanhamento de tendências, que ele explica ser impulsionado principalmente pelos dividendos em seu modelo, mas exigiria outras etapas para torná-lo mais realista para o mundo financeiro real. mercados.

  • 01:05:00 Martin Scholl discute sua abordagem para estudar ecologia de mercado usando modelos baseados em agentes. Scholl não assume que os agentes são capazes de adaptar suas crenças em seu modelo. As operações de mercado normalmente envolvem gestores de fundos seguindo estratégias traçadas em um prospecto por décadas, indicando que o processo de alocação de ativos tende a ser mecânico. Scholl tende a se inclinar para um comportamento menos adaptativo e menos inteligente em sua modelagem. No entanto, outros membros do grupo de pesquisa da Universidade de Oxford trabalham na aplicação de algoritmos evolutivos para transformar parâmetros em estratégias e até inovar novas.
Martin Scholl (University of Oxford): "Studying Market Ecology Using Agent-Based Models"
Martin Scholl (University of Oxford): "Studying Market Ecology Using Agent-Based Models"
  • 2022.03.23
  • www.youtube.com
Abstract: This talk presents a mathematical analogy between financial trading strategies and biological species and shows how to apply standard concepts fro...
 

Kevin Webster: "Como o impacto do preço distorce o P&L da contabilidade"



Kevin Webster: "Como o impacto do preço distorce o P&L da contabilidade"

Em um vídeo do YouTube, Kevin Webster investiga o tópico de como o impacto do preço pode distorcer as demonstrações contábeis de lucros e perdas (P&L). Ele enfatiza a importância de modelar com precisão o impacto do preço para gerenciar o risco com eficácia e destaca a importância de gerenciar o risco de liquidez para evitar ficar com uma posição ilíquida. Webster reconhece que existem vários modelos de impacto de preços disponíveis, mas eles geralmente concordam com a maioria dos dados.

A palestra começa abordando a interseção entre o impacto do preço e o risco de liquidez, observando particularmente que a liquidez dos principais mercados era muitas vezes tida como certa antes da crise financeira. Webster compartilha citações poderosas que ilustram como o impacto do preço cria uma ilusão de lucro, levando a deslocamentos de preços para longe dos valores financeiros. O objetivo da palestra é formalizar matematicamente esse conceito, fornecendo uma estrutura quantitativa baseada na estimativa do impacto da liquidação no mercado para eliminar a ilusão de lucro.

Webster explica o impacto do preço como um modelo causal para negociação, onde negociações mais agressivas empurram os preços ainda mais e vice-versa. Os modelos de impacto de preço são amplamente utilizados na análise de custos de transação e execução otimizada, servindo como ferramentas de pré-negociação para estimar custos de transação esperados e otimizar estratégias de execução. Ele apresenta um relatório simulado de análise de custo de transação que permite que os traders avaliem o desempenho de seus algoritmos trimestralmente, com foco em minimizar a derrapagem de pedidos e considerar movimentos mecânicos e derrapagem alfa.

O palestrante aborda as diretrizes publicadas pela European Securities and Markets Authority (ESMA) sobre testes de estresse de liquidez, que envolvem a simulação de liquidação de ativos durante períodos de estresse de mercado. Simular reações do mercado, como deslocamentos de preços, e empregar estratégias de hedge são cruciais para reduzir a exposição ao risco. Webster faz referência a várias literaturas sobre testes de estresse de liquidez e impacto de preço no P&L contábil, incluindo os trabalhos de Cascioli, Boucheron, Farmer e comitês regulatórios como ESMA e o Baffled Committee. Ele enfatiza a necessidade de testes de estresse de liquidez para mitigar situações que possam impactar o P&L contábil e resultar em altos custos de liquidação.

É introduzido o conceito de pegada comercial, que mede o efeito de distorção do impacto do preço no P&L contábil e une diferentes definições de P&L. Webster apresenta um modelo simples de liquidação para ilustrar as conclusões significativas sobre P&L contábeis tiradas pelo artigo da Casadio-Bouchard-Farmer. Ele explica como os operadores de número e gerentes de plataforma observam diariamente superestimar seu P&L final, levando à deflação quando a negociação é concluída. No entanto, essa propriedade de inflação pode ser medida e exibida em tempo real, fornecendo informações acionáveis para os traders. Webster observa que as perdas de inflação de posição geralmente são temporárias e dependem da tolerância ao risco.

São discutidas as questões relacionadas à avaliação de uma posição acionária e seu impacto no P&L de uma empresa. Webster destaca a ambigüidade na determinação de quais preços usar para marcar a posição do estoque e a diferença entre o P&L contábil e o P&L fundamental usado pelos algoritmos de negociação. A pegada de negociação é definida como a diferença entre o P&L contábil e o P&L fundamental, com a ambigüidade resolvida quando a posição é fechada. O palestrante explora a inflação de posição, fazendo certas suposições sob as quais essa propriedade se mantém. O modelo de impacto e seus dois casos, o mole OW original e o mole W estudados por Fruehwirth e Bond, também são abordados.

Webster explica que, para que o modelo faça sentido, uma condição de não arbitragem entre lambda e beta precisa ser satisfeita, juntamente com uma condição de equação de autofinanciamento. Ele se aprofunda no cálculo do P&L esperado na hora do fechamento e como a pegada comercial introduz viés no P&L contábil. A propriedade de inflação de posição faz com que a posição infle durante a fase de entrada na posição, permaneça durante a fase de manutenção e eventualmente evapore. Todos esses aspectos podem ser observados em tempo real em uma tela de negociação, fornecendo informações valiosas aos traders.

Webster explica ainda mais as distorções no P&L contábil causadas pelo impacto do preço. Ele discute como os comerciantes podem fazer negócios lucrativos mesmo sem alfa, mas adverte que esses lucros duram pouco devido aos custos de transação. Monitorar os deslocamentos de preços desde o início é crucial para evitar perdas. Além disso, Webster observa que os gerentes de portfólio preferem ver seus portfólios como um todo e introduz o conceito de portfólio estacionário, que controla o tamanho e o giro de um portfólio no mundo das finanças matemáticas.

O conceito de uma carteira estacionária é então explorado em relação à estimativa dos custos de transação corrente. Ao entender a escala de tempo do propagador, os traders podem estimar até que ponto suas posições estão infladas e a ilusão de lucro que podem perder ao liquidar suas posições. Webster demonstra a estrutura usando dados empíricos, mostrando sua aplicabilidade a cenários do mundo real. Ele aplica a estrutura a um modelo de liquidação e explica as diferenças entre P&L contábil e P&L fundamental, destacando como eles informam diferentes funções objetivas com base na aversão ao risco de um trader.

O palestrante investiga o impacto das vendas de fogo ou da atividade de negociação de outros participantes do mercado nos lucros e perdas e na posição de um trader. Hedging agressivo pode levar a efeitos de crowding e inflação de posição, resultando em perdas permanentes. A modelagem precisa do impacto do preço é crucial para o gerenciamento de risco eficaz, e o gerenciamento do risco de liquidez é enfatizado para evitar acabar com posições ilíquidas.

Webster reconhece que, embora existam muitos modelos diferentes de impacto de preço disponíveis, eles geralmente concordam com a maioria dos dados. No entanto, podem surgir diferenças na quantidade e duração da persistência do impacto. Deslocamentos temporários podem durar de alguns dias a um mês. Do ponto de vista do gerenciamento de riscos, há um curso de ação claro, enquanto do ponto de vista do trader e do desempenho, a comunicação eficaz torna-se fundamental. Entender se o P&L é mecânico ou não e remover a parte mecânica permite que os traders se concentrem no alfa real ou vantagem em seus negócios.

O palestrante explica o princípio de "nenhuma manipulação de preços", destacando que mesmo que os comerciantes obtenham lucros, eles não podem mantê-los, pois acabarão por evaporar. A inflação de posição leva à deflação do valor comercial ao longo do tempo ou à liquidação imediata, resultando em P&L zero ou mesmo negativo. Portanto, os comerciantes precisam contar com outras variáveis para gerar lucros sustentáveis. Webster explora ainda mais a correlação entre o estado de impacto inicial, o impacto causado pelo restante do mercado e o impacto dos hedges do trader e do restante do mercado.

Em conclusão, Kevin Webster fornece uma compreensão abrangente de como o impacto do preço pode distorcer o P&L contábil. Ele lança luz sobre os custos extras durante regimes de liquidez de alta volatilidade e sua correlação com o mercado mais amplo, enfatizando seu impacto no viés. Do ponto de vista regulatório, títulos corporativos e seguradoras provavelmente serão mais afetados por esse viés. Enquanto Webster admite que carece de respostas detalhadas para mercados fora de ações, ele fornece uma base matemática sólida para entender o impacto do preço e sua potencial distorção de P&L.

  • 00:00:00 é a base desta palestra sobre como o impacto do preço distorce o P&L contábil. A palestra é motivada pela interseção entre o impacto do preço e o risco de liquidez, e o fato de que a liquidez dos principais mercados era frequentemente dada como certa antes da crise financeira. O palestrante fornece duas citações poderosas que ilustram a ilusão de lucro causada pelo impacto do preço e como isso leva a deslocamentos de preços longe dos valores financeiros. A palestra visa formalizar matematicamente essa ideia e fornecer uma estrutura quantitativa com base no impacto estimado da liquidação no mercado para remover essa ilusão de lucro.

  • 00:05:00 O palestrante discute o impacto do preço como um modelo causal para negociação e como ele faz com que o preço seja empurrado ainda mais se negociado de forma mais agressiva e vice-versa. A indústria usa modelos de impacto de preços para análise de custos de transação e execução ideal, e os profissionais os usam como uma ferramenta de pré-negociação para estimar o custo de transação esperado de um pedido e otimizar a estratégia de execução. O palestrante fornece um relatório simulado do TCA para emular essa perspectiva de liquidez para que os traders avaliem como seus algos estão se saindo trimestralmente. Os comerciantes tentam minimizar a derrapagem da ordem, e o impacto do preço e a derrapagem alfa entram em jogo, dependendo da porcentagem de derrapagem da ordem causada por movimentos mecânicos ou alfa.

  • 00:10:00 Kevin Webster discute as diretrizes publicadas pela European Securities and Markets Authority sobre como realizar testes de estresse de liquidez, que envolvem a simulação da liquidação de ativos durante períodos de estresse do mercado. Ele também explica a importância de simular reações do mercado, como deslocamentos de preços, e como o hedge pode reduzir a exposição ao risco. Além disso, ele revisa duas vertentes da literatura sobre testes de estresse de liquidez e impacto de preço no P&L contábil, incluindo os trabalhos de Cascioli Boucheron Farmer e reguladores como Baffled Committee e ESMA. Por fim, ele enfatiza a necessidade de testes de estresse de liquidez para evitar situações que possam impactar o P&L contábil e incorrer em altos custos de liquidação.

  • 00:15:00 O palestrante discute as conclusões de vários documentos sobre testes de estresse de liquidez, incluindo a necessidade de os tomadores de decisão usá-los e sua estrutura baseada em simulação. Eles recomendam um artigo específico de Francelli sobre a simulação de deslocamentos de preços durante o estresse do mercado, juntamente com um par de artigos de Schweizer e Urzua que fornecem uma prova alternativa para o modelo OB e aumentam muito sua aplicabilidade. O palestrante também apresenta o conceito de pegada comercial que une diferentes definições de P&L e mede o efeito de distorção do impacto do preço no P&L contábil. Por fim, eles criaram um modelo simples de liquidação para ilustrar as poderosas conclusões sobre lucros e perdas contábeis feitas pelo artigo de Casadio-Bouchard-Farmer.

  • 00:20:00 Kevin Webster discute como o impacto do preço pode distorcer o P&L contábil. Ele explica como os operadores de número e gerentes de plataforma observam diariamente superestimando seu P&L final, fazendo com que diminua quando eles terminam o comércio. No entanto, a propriedade de inflação pode ser medida e exibida em tempo real, tornando-a acionável para os traders. Webster observa que a parte da inflação da posição das perdas geralmente é temporária e depende da tolerância ao risco. Ele conclui com uma introdução à configuração matemática, variáveis e quantidades que os traders precisam considerar ao calcular o P&L.

  • 00:25:00 Nesta seção, Kevin Webster explica as questões relacionadas à avaliação de uma posição de estoque e como isso afeta o Lucro e Perda (P&L) de uma empresa. Ele fala sobre a ambigüidade na determinação de quais preços usar para marcar a posição das ações e a diferença entre o P&L contábil e o P&L fundamental que o algoritmo de negociação usa. Ele define a pegada comercial como a diferença entre o P&L contábil e o P&L fundamental e explica como a ambiguidade é eliminada quando a posição é fechada. Ele também discute a inflação de posição e fornece algumas suposições sob as quais essa propriedade se sustenta. Finalmente, ele menciona o modelo de impacto e seus dois casos, o mole OW original e o mole W que Fruehwirth e Bond estudaram.

  • 00:30:00 Kevin Webster explica que, para que o modelo faça sentido, é necessário que haja uma condição de não arbitragem entre lambda e beta, bem como uma condição de equação de autofinanciamento que precisa ser satisfeita. Ele também detalha como calcular o P&L esperado na hora do fechamento e como a pegada comercial introduz viés no P&L contábil. Finalmente, ele discute como a propriedade de inflação de posição faz com que a posição infle durante a fase de entrada na posição, permaneça durante a fase de manutenção e eventualmente evapore. Tudo isso pode ser observado em tempo real e em uma tela de negociação.

  • 00:35:00 Nesta seção, Kevin Webster, um especialista em finanças, explica as distorções de impacto de preço que ocorrem na contabilidade P&L. Ele discute como os comerciantes podem fazer negociações lucrativas mesmo quando suas negociações não têm alfa, ao mesmo tempo em que alerta que esses lucros não durarão muito devido aos custos de transação e que os comerciantes devem monitorar esses locais de preço antecipadamente para evitar perdas. Além disso, ele explica que os gerentes de portfólio preferem pensar em seu portfólio como um todo e define um portfólio estacionário para controlar o tamanho e a rotatividade de um portfólio no mundo das finanças matemáticas.

  • 00:40:00 Kevin Webster discute o conceito de um portfólio estacionário e como ele pode ser usado para estimar custos de transação corrente. Ao conhecer a escala de tempo do propagador, os traders podem estimar o quanto sua posição está inflada e a ilusão de lucro que podem perder se começarem a liquidar sua posição. Webster então simula a estrutura em dados empíricos e destaca que essas fórmulas podem ser aplicadas a cenários do mundo real. Por fim, ele aplica a estrutura a um modelo de liquidação e explica as diferenças entre P&L contábil e P&L fundamental e como eles podem informar diferentes funções objetivas, dependendo da aversão ao risco de um trader.

  • 00:45:00 Kevin discute como as vendas de fogo, ou a atividade comercial de outros participantes do mercado, podem afetar o lucro e a posição de um trader. Ele demonstra que hedging agressivo pode levar a efeitos de crowding e inflação de posições, o que pode resultar em perdas permanentes. Além disso, ele enfatiza a importância de modelar com precisão o impacto do preço para gerenciar o risco de forma eficaz e destaca a importância de gerenciar o risco de liquidez antes de acabar com uma posição ilíquida. Por fim, ele observa que, embora existam muitos modelos de impacto de preço diferentes, eles geralmente concordam na maioria dos dados.

  • 00:50:00 O palestrante discute como diferentes modelos de impacto podem se opor não apenas no valor ou na mudança do impacto no preço, mas também na duração do desaparecimento do impacto. Eles fornecem um exemplo de deslocamento temporário que pode durar de alguns dias a um mês. No entanto, se os traders ou gerentes de desempenho quiserem reduzir o viés de suas posições ou realizar o gerenciamento de risco, qualquer modelo de impacto deve ser suficiente e há um conjunto acionável para se comunicar de maneira eficaz com as partes interessadas. Do ponto de vista da gestão de riscos, há um conjunto claro de ações. Em contraste, do ponto de vista do trader e do desempenho, é principalmente uma questão de comunicação, ao entender se o p/l é mecânico ou não, removendo a parte mecânica do p/l, pode-se focar no alfa real ou na vantagem real no comércio .

  • 00:55:00 Kevin Webster explica que o princípio de não manipulação de preços significa que, mesmo que os comerciantes obtenham lucros, eles não podem prendê-los, pois acabarão por evaporar. A inflação da posição de prova resulta na deflação do valor do negócio ao longo do tempo ou na liquidação imediata, o que leva a um P&L zero ou mesmo negativo. Os comerciantes precisam confiar em outras variáveis para obter lucros, pois a inflação da posição não permite que os lucros se tornem permanentes. Webster discute ainda a correlação entre o estado de impacto inicial, o impacto inicial causado pelo restante do mercado e o impacto dos hedges do trader e do restante do mercado.

  • 01:00:00 Kevin Webster discute como o impacto do preço distorce a contabilidade P&L. Ele explica que os custos extras durante os regimes de liquidez de alta volatilidade e a correlação com o restante do mercado podem contribuir bastante para o viés. Do ponto de vista da regulamentação, os títulos corporativos e as seguradoras provavelmente seriam mais afetados por esse viés. No entanto, como ele admite, ele não tem uma resposta muito detalhada, pois não tem certeza de como responder a certas perguntas fora das ações. No geral, ele fornece uma compreensão matemática do impacto do preço e como ele pode distorcer o P&L.
Kevin Webster: "How Price Impact Distorts Accounting P&L"
Kevin Webster: "How Price Impact Distorts Accounting P&L"
  • 2022.02.16
  • www.youtube.com
Full Talk Title: "How Price Impact Distorts Accounting P&L - Revisiting Caccioli, Bouchaud and Farmer's Impact-Adjusted Valuation"This presentation revisits ...
 

Laura Leal (Princeton University) - "Aprendendo um Controle Funcional para Finanças de Alta Frequência"



Laura Leal (Princeton University) - "Aprendendo um Controle Funcional para Finanças de Alta Frequência"

Laura Leal, pesquisadora da Universidade de Princeton, fez uma apresentação informativa sobre a aplicação de redes neurais profundas em finanças de alta frequência. Ela enfatizou as limitações das soluções convencionais e explorou as vantagens da utilização de redes neurais neste domínio. Leal destacou sua capacidade de se adaptar a fatores complexos, como autocorrelação e sazonalidade intradiária, com os quais os modelos tradicionais lutam. Ao alavancar as redes neurais, os traders podem obter uma execução ideal, minimizando o impacto no mercado e negociando sem problemas.

Para abordar as preocupações sobre a natureza da caixa preta das redes neurais, Leal introduziu o conceito de explicabilidade. Ela discutiu a projeção do controle da rede neural em um manifold de dimensão inferior, permitindo uma melhor compreensão dos riscos associados e o desvio de setores de risco familiares. A equipe avaliou o desempenho do controle da rede neural, comparando-o com a clássica solução PDE (equação diferencial parcial) de forma fechada. Eles examinaram a função de valor, a riqueza de marcação a mercado e os erros relativos nas projeções para avaliar a precisão e a eficácia da abordagem de rede neural.

Leal mergulhou nas complexidades do treinamento da rede neural, enfatizando a importância de incorporar dados do mundo real e dinâmica precisa. Ela também propôs um controlador de múltiplas preferências que permite aos traders inserir suas preferências de risco, permitindo uma adaptação mais rápida às novas condições de mercado. Ao considerar os parâmetros de aversão ao risco e incorporar as preferências de um trader, a rede neural pode gerar uma solução para o problema de otimização estocástica em finanças de alta frequência.

O apresentador discutiu a estrutura da rede neural utilizada para controle de risco, destacando sua natureza recorrente. Embora a rede não seja excessivamente profunda, ela emprega uma estrutura recorrente a cada passo de tempo, atualizando os pesos simultaneamente. As entradas para a rede incluem tempo e estoque, enquanto a saída é o próprio controle – determinando a quantidade ideal de estoques para negociar em cada passo de tempo. Para enfrentar o desafio da disponibilidade limitada de dados financeiros, o aprendizado de transferência é empregado, simulando dados usando métodos de Monte Carlo.

Leal delineou o processo de projetar o controle da rede neural em um espaço de função linear usando regressão linear. Essa técnica de projeção facilita um melhor entendimento das funções não lineares da rede neural e seu alinhamento com soluções de controle de forma fechada. Os resultados demonstraram o impacto da incorporação dos parâmetros de sazonalidade e aversão ao risco na reação do modelo ao mercado. Além disso, o apresentador enfatizou a importância de gama, que normalmente é definido como dois na literatura, mas mostrou uma solução não linear quando considerado como três sobre dois.

O desempenho e a precisão do controle da rede neural na execução de negociações para finanças de alta frequência foram minuciosamente avaliados. Leal comparou a função de valor, riqueza de marcação a mercado e erros relativos em projeções em diferentes cenários e valores gama. Embora a rede neural tenha apresentado desempenho superior, ela executou negócios de maneira não linear, desviando-se da solução de controle conhecida. Isso levantou questões sobre a decisão de negociar usando a rede neural e determinar os níveis de margem apropriados com base em sua divergência da solução estabelecida.

Leal explorou os benefícios da abordagem do controlador de múltiplas preferências, permitindo que os traders insiram seus parâmetros de conversão de risco e comecem a negociar imediatamente com um modelo pré-treinado. Embora a solução de rede neural levasse mais tempo para ser executada do que a solução PDE, ela oferecia maior flexibilidade e adaptabilidade a diferentes preferências de risco. Para aumentar a explicabilidade, Leal propôs uma ideia de projeção usando regressão linear, reduzindo a carga computacional e mantendo a capacidade de preferência múltipla. Ela também destacou as aplicações mais amplas do conceito de aproximação de redes neurais, sugerindo sua relevância em outros problemas financeiros, como hedging.

O processo de treinamento da rede neural em finanças de alta frequência foi discutido, enfatizando o treinamento offline para evitar problemas de latência associados ao aprendizado por reforço online. A rede leva tempo, estoque e parâmetros de aversão ao risco como entradas e produz uma taxa como saída. Leal também descreveu o procedimento de ajuste fino no aprendizado de transferência, fazendo a transição de dados simulados para incrementos de dados reais obtidos da Bolsa de Valores de Toronto depois que a rede convergiu. O apresentador destacou a importância de usar dados do mundo real e dinâmicas precisas durante o processo de treinamento, pois aumenta a capacidade da rede de capturar as complexidades das finanças de alta frequência.

Na seção subsequente, Laura Leal forneceu informações sobre as entradas e a função objetiva empregadas na rede neural para finanças de alta frequência. A rede neural incorpora o estoque como uma proporção do volume médio de um estoque específico durante um dia, permitindo uma representação normalizada. A função objetivo é enquadrada como um problema de maximização, com a saída servindo como controle para a execução ótima. A estrutura da rede neural é baseada na aproximação de função, utilizando dois nós de entrada e quatro camadas ocultas para capturar os relacionamentos subjacentes.

Respondendo a uma questão sobre a discrepância entre duas soluções de controle, Leal esclareceu que ela pode ser interpretada como reflexo da mudança de utilidade do investidor. Ao ajustar o parâmetro gama, diferentes funções de utilidade podem ser empregadas, levando a variações nas soluções de controle. Em sua pesquisa, a equipe escolheu o valor gama de três metades com base em testes empíricos com traders reais, o que resultou em desempenho satisfatório.

Leal destacou ainda que a saída da rede neural é observável e analisável. Eles podem monitorar as posições assumidas pela rede e como elas evoluem ao longo do pregão, fornecendo transparência e insights sobre o processo de tomada de decisão. Esse nível de interpretabilidade e compreensão permite que os traders ganhem confiança nas estratégias de execução da rede neural.

Os desafios associados ao desenvolvimento de controles funcionais para finanças de alta frequência também foram discutidos por Leal. Embora um processo de controle médio possa fornecer informações gerais sobre a execução da negociação, ele pode não representar com precisão o comportamento de trajetórias individuais. A dinâmica do mercado, como o surgimento de estoques de memes, exige a adaptação de métodos de controle para capturar as condições em evolução de forma eficaz.

Concluindo, a apresentação de Laura Leal esclareceu as complexidades da criação de controles eficazes no âmbito das finanças de alta frequência. Ao alavancar redes neurais profundas, pesquisadores e traders podem superar as limitações dos modelos tradicionais e se adaptar à intrincada dinâmica desse domínio. A incorporação de preferências de risco, medidas de explicabilidade e dados do mundo real contribuem para o desenvolvimento de soluções de controle robustas e adaptáveis. Por meio de seu trabalho, Leal e sua equipe oferecem insights e soluções valiosas que abrem caminho para uma tomada de decisão mais eficiente e informada em finanças de alta frequência.

  • 00:00:00 Laura Leal apresenta seu trabalho conjunto com Matthias e Charlotte sobre o uso de uma rede neural profunda para resolver o problema de execução ótima em finanças de alta frequência. O objetivo é evitar um grande impacto no mercado e negociar da maneira mais suave e furtiva possível. A equipe apresenta a ideia de explicabilidade para abordar a preocupação das redes neurais sendo uma caixa preta, onde projetam o controle da rede neural em um coletor de dimensão inferior para entender melhor o risco e quão longe a solução da rede neural está do risco familiar setor. Eles avaliam o desempenho, observando a função de valor, o mercado marcado por riqueza e os erros relativos nas projeções e comparam a solução de rede neural com a solução clássica de PDE de forma fechada.

  • 00:05:00 Laura Leal, da Universidade de Princeton, discute como as redes neurais podem melhorar as limitações das soluções tradicionais, como modelos PD (diferenciais parciais), que lutam para se adaptar às complexidades das finanças de alta frequência, como autocorrelação, caudas pesadas e sazonalidade intradiária. No entanto, as redes neurais podem ser demoradas para serem executadas, então ela propõe um controlador de múltiplas preferências que insere as preferências de risco de um trader para se adaptar mais rapidamente aos novos dias, gerando uma solução para o problema de otimização estocástica. Leal então fornece uma visão geral da literatura, incluindo modelos de execução ideais e explica as variáveis de estado, como estoque, controle e preço, com as quais a rede neural pode aprender em finanças de alta frequência.

  • 00:10:00 Laura discute a evolução do processo de precificação em finanças de alta frequência e como ele é afetado pela velocidade da negociação. Ela explica que quanto mais rápido você negocia, mais liquidez você consome, o que empurra o preço para cima e gera um impacto permanente no mercado. O critério objectivo a minimizar depende do controlo, que é a velocidade de negociação, e tem uma componente terminal e uma componente de custo de funcionamento. O custo do terminal é dividido em três partes, que incluem a riqueza final em dinheiro, penalidade por manter o estoque e por quanto o estoque final pode ser vendido. O custo operacional é uma penalidade por manter o estoque ao longo do dia, e esses dois parâmetros são essenciais para o gerenciamento de riscos. Leal também discute como o gama é significativo para sua solução de rede neural e geralmente é considerado igual a dois na literatura.

  • 00:15:00 Laura Leal, palestrante da Universidade de Princeton, explica o uso de uma rede neural para aprender a aproximação em um problema financeiro de alta frequência onde a função de valor tem algum termo quadrático no inventário. A solução equivalente ao usar uma métrica neural é diferente de otimizar o controle mu, pois os parâmetros da rede neural devem ser escolhidos. A rede neural é utilizada para todas as etapas de tempo, permitindo que ela aprenda como reagir com base no preço, estoque e riqueza do agente. O processo usa uma estrutura de rede neural feed-forward totalmente conectada com entradas de tempo e inventário. No entanto, as entradas podem ser generalizadas de várias maneiras para incluir mais entradas do que os parâmetros de preferência de risco usados no vídeo para fins ilustrativos.

  • 00:20:00 Laura Leal explica a estrutura da rede neural que é utilizada para controle de risco em finanças de alta frequência. A rede não é muito profunda, mas é recorrente, reutilizando a mesma estrutura a cada passo de tempo para atualizar os pesos simultaneamente. A entrada para a rede é o tempo e o estoque, e a saída é o controle, que é a própria rede neural, produzindo para cada intervalo de tempo uma certa quantidade de ações para negociar. O aprendizado de transferência é usado para simular dados usando Monte Carlo em vez de usar dados financeiros caros ou esparsos. Os dados usados são da Bolsa de Valores de Toronto de janeiro de 2008 a dezembro de 2009, e a rede neural é usada para abordar questões de caudas pesadas, autocorrelação e sazonalidade intradiária.

  • 00:25:00 Nesta seção, Laura Leal explica o processo de projetar o controle obtido pela rede neural no espaço de funções lineares de q usando regressão linear para encontrar os termos beta1 e beta2 para determinar o r ao quadrado, mostrando quanto de as funções não lineares da rede neural podem ser projetadas no espaço de controles de forma fechada. Os resultados mostraram que ao adicionar funcionalidades ao código, como sazonalidade e aprender os parâmetros de aversão ao risco do agente, houve um impacto significativo na reação do modelo ao mercado, mas ao considerar gama igual a 3 sobre 2, houve um não -solução linear para a rede neural.

  • 00:30:00 Laura examina o desempenho e a precisão do controle da rede neural na execução de negociações para finanças de alta frequência. Ela compara a função de valor e marca a riqueza de mercado para diferentes cenários e valores gama. Ela também avalia o erro relativo na projeção e observa que, embora a rede neural tenha um desempenho melhor, ela está executando de maneira não linear e diferente do controle conhecido. Isso levanta questões sobre se deve ou não negociar usando a rede neural e quanta margem definir com base em sua distância da solução conhecida confortável.

  • 00:35:00 Nesta seção, Laura discute suas descobertas sobre o controlador de múltiplas preferências para uma execução ideal em finanças de alta frequência. Leal descobriu que a solução de rede neural leva mais tempo para ser executada do que a solução PDE para todos os conjuntos de parâmetros porque a primeira está reagindo à sazonalidade. No entanto, com essa abordagem, os traders podem inserir seus parâmetros de conversão de risco atuais e começar a negociar imediatamente com algo que já foi treinado. Leal também propõe explicabilidade por meio de uma ideia de projeção que usa uma regressão linear e uma versão de múltiplas preferências do mesmo problema para remover parte da carga computacional. Além disso, Leal discute outros trabalhos em sua tese e como essa ideia de aproximação de rede neural pode ser aplicada a muitos outros problemas financeiros, incluindo hedging.

  • 00:40:00 Laura Leal fala sobre o processo de treinamento da rede neural utilizada em finanças de alta frequência. Ela explica que a rede é treinada offline, e não por meio de aprendizado de reforço online, para evitar problemas de latência. Uma vez que a rede tenha sido treinada, ela recebe entradas de tempo e inventário, potencialmente com parâmetros de aversão ao risco, e gera uma taxa. O usuário final não precisa entender o funcionamento interno da rede. Leal também explica o procedimento de ajuste fino usado no aprendizado de transferência, que envolve a mudança para incrementos de dados reais da Bolsa de Valores de Toronto após a convergência da rede. Por fim, ela aborda questões sobre pré-processamento e otimização, enfatizando a importância do uso de dados do mundo real e dinâmica precisa no processo de treinamento.

  • 00:45:00 Nesta seção do vídeo, Laura Leal discute as entradas e a função objetivo usadas na rede neural para finanças de alta frequência. A rede neural considera o estoque como uma proporção do volume médio desse estoque durante um dia, que é considerado um valor entre menos um e um. A função objetivo é um problema de maximização com a saída sendo um controle, e a estrutura da rede neural é baseada na aproximação da função. Leal também explica que existem dois nós de entrada e quatro camadas ocultas na estrutura da rede neural. Por fim, ela aborda uma questão sobre a diferença entre duas soluções de controle e esclarece que ela pode ser interpretada como resultado da mudança da utilidade do investidor.

  • 00:50:00 Laura discute as diferenças entre os modelos gama 2 e três metades e suas funções de utilidade. Ela explica que com gama 2, a solução não é mais uma solução de forma fechada e, em vez disso, uma solução aproximada é produzida por meio de uma rede neural. A razão para escolher o gama três metades foi testá-lo com traders reais dentro de uma empresa e resultou em bom desempenho. Além disso, Leal confirma que a saída da rede neural pode ser observada e analisada, e eles sabem quais posições ela assume e como elas mudam ao longo do dia.

  • 00:55:00 Nesta seção, Laura Leal discute os desafios de fazer um controle funcional para finanças de alta frequência. Embora um processo de controle médio possa fornecer informações sobre como será a execução de uma negociação, pode não ser totalmente preciso ao observar uma única trajetória. Ela também aborda uma questão sobre o uso de um método de dois blocos para otimização e explica como o método precisaria se adaptar à dinâmica em mudança, como no caso de estoques de memes. No geral, a apresentação de Leal lança luz sobre as complexidades da criação de controles funcionais para finanças de alta frequência.
Laura Leal (Princeton University) - "Learning a Functional Control for High-Frequency Finance"
Laura Leal (Princeton University) - "Learning a Functional Control for High-Frequency Finance"
  • 2021.11.17
  • www.youtube.com
Laura Leal (Princeton University) is our last speaker for the Fall 2021 seminar series. Her topic is called "Learning a Functional Control for High-Frequency...
 

Zihao Zhang (Oxford-Man Institute) - "Aprendizado Profundo para Mercado por Dados de Pedidos"



Zihao Zhang (Oxford-Man Institute) - "Aprendizado Profundo para Mercado por Dados de Pedidos"

Zihao Zhang, pesquisador de pós-doutorado no Oxford-Man Institute e parte do grupo de pesquisa de aprendizado de máquina, apresenta o trabalho recente de sua equipe sobre a aplicação de aprendizado profundo ao mercado por dados de pedidos. Seu foco está em dados de microestrutura de mercado, particularmente o livro de pedidos de limite, que fornece informações valiosas sobre a demanda geral e dinâmica de oferta para um instrumento financeiro específico. Ao combinar os dados do mercado por pedido e do livro de pedidos limitados, Zhang e sua equipe descobriram que podem reduzir a variação do sinal e obter melhores sinais preditivos. Esta aplicação de seu modelo tem potencial para melhorar a execução comercial e as estratégias de criação de mercado.

Zhang começa sua apresentação fornecendo uma breve introdução aos dados de microestrutura de mercado, enfatizando especificamente a importância dos dados de mercado por pedido. Essa fonte de dados oferece informações altamente granulares, fornecendo atualizações e eventos frequentes em comparação com os dados do livro de pedidos limitados, que receberam mais atenção na literatura existente. Ele apresenta seu modelo de aprendizado profundo, explicando as arquiteturas de rede que eles projetaram para analisar o mercado por dados de pedidos. Zhang destaca que seu trabalho representa o primeiro modelo preditivo usando dados de mercado por pedido para prever movimentos de alta frequência, oferecendo uma fonte alternativa de informações que expande as possibilidades de descoberta alfa.

Em seguida, Zhang investiga o conceito do livro de ordens limitadas, que serve como um registro abrangente de todas as ordens limitadas pendentes para um instrumento financeiro em um determinado momento. Ele enfatiza que, embora os dados do gráfico ofereçam informações de baixa frequência, o preço de uma ação é, na verdade, representado pelo livro de ordens limitadas, que é uma série temporal multivariada. Zhang explica como o livro de pedidos limitados é organizado em diferentes níveis de preço com base nos pedidos enviados, com cada nível de preço consistindo em vários pedidos pequenos segmentados por diferentes traders. Ele também discute como o livro de pedidos é atualizado quando novas mensagens chegam, o que pode introduzir novas posições, cancelar pedidos existentes ou modificar pedidos atuais. Zhang aponta que os dados derivados do livro de pedidos limitados revelam a relação geral de demanda e oferta para um instrumento financeiro específico, e seu objetivo é determinar se a utilização de dados de mercado por pedido, contendo informações sobre colocação e cancelamento de pedidos, pode fornecer informações adicionais para fazer previsões.

Seguindo em frente, Zhang explora como os dados do mercado por pedido podem ser utilizados no aprendizado profundo para prever os movimentos do mercado. Embora as sequências de mensagens nos dados de ordens de mercado possuam dimensões menores em comparação com o livro de ordens de limite, elas oferecem informações adicionais que podem ser aproveitadas para previsões. Zhang explica como eventos passados podem ser transformados em matrizes 2D, formando imagens que podem ser inseridas em uma rede neural para previsão. Os recursos resultantes da camada convolucional podem então ser integrados nas camadas neurais recorrentes para aprender a estrutura e capturar dependências adicionais. A camada final produz previsões com base em uma configuração de classificação usando retornos de limite.

Zhang passa a discutir a arquitetura de rede empregada para fazer previsões usando dados do livro de pedidos limitados. Nesse caso, os dois primeiros componentes são substituídos por mensagens de traders individuais e as camadas convolucionais são substituídas por uma camada LSTM ou camada de atenção. Zhang explica brevemente o mecanismo de atenção, que facilita a previsão de ponto único e envolve uma estrutura de codificador-decodificador. O codificador extrai características significativas dos tempos de entrada e os resume em um estado oculto, enquanto o decodificador gera a previsão. A normalização é empregada para determinar se uma ordem é de compra ou venda com base no preço médio.

Na seção subsequente, Zhang apresenta os resultados de seu modelo treinado com um grupo de ativos, normalizado para uma escala semelhante e testado usando diferentes modelos, como o modelo linear simples, perceptron multicamada, LSTM e modelo de atenção, incorporando ordem limite dados do livro e dados ambientais puros. Os resultados indicam que os sinais preditivos dos dados ambientais exibem menos correlação com os sinais do livro de pedidos de limite, sugerindo que uma combinação dessas duas fontes pode reduzir a variação do sinal, se beneficiar da diversificação e produzir sinais preditivos superiores. Portanto, um modelo de conjunto que calcula a média dos sinais preditivos de ambos os tipos de dados demonstra o melhor desempenho.

Zhang passa a discutir os benefícios potenciais de incorporar dados de mercado por pedido (MBO) em previsões e destaca a capacidade de realizar engenharia de recursos com esses dados. Ele apresenta os resultados para horizontes de previsão variando de dois a 20 ticks à frente, observando comportamentos semelhantes observados para 50 e 100 ticks à frente. Zhang também aborda questões do público, incluindo a possibilidade de treinar um único modelo usando todos os instrumentos para melhor generalização e a fonte dos dados MBO da London Stock Exchange. Em resposta à pergunta de um membro da platéia sobre focar em NF1 em vez de PNL, Zhang concorda e reconhece que PNL é uma medida de sucesso mais relevante.

Zhang discute ainda o uso de sinais preditivos e várias maneiras de defini-los, como usar um sinal bruto ou definir um limite com base nas probabilidades softmax. Ele resume os pontos principais do artigo, que propõe a modelagem de dados de mercado por pedido (MBO) em vez de dados de livro de pedidos limitados e testes de modelos de aprendizado profundo, incluindo o mecanismo de retenção LSTM. Os resultados indicam que uma combinação de MBO e dados do livro de pedidos limitados produz os melhores resultados. Zhang aborda as questões do público sobre a autocorrelação entre os movimentos do mercado, filtrando negociações de ruído e a motivação para usar camadas CNN na modelagem de imagens de ordem de limite.

Na seção seguinte, Zhang explica como a carteira de pedidos pode ser tratada como uma estrutura espacial que pode ser explorada de forma eficaz usando redes neurais convolucionais (CNNs). O uso de uma CNN para extrair informações de cada nível de preço provou ser valioso para previsões. A camada de memória de longo prazo (LSTM) é escolhida em vez de perceptrons multicamadas, pois mantém o fluxo temporal de dados e resume eventos passados para fazer previsões. Zhang observa que os benefícios de usar um mecanismo de atenção são limitados devido à natureza das séries temporais financeiras. O artigo inclui uma descrição detalhada dos hiperparâmetros empregados em seu modelo.

Zhang aborda a preocupação com o grande número de parâmetros usados nos métodos de rede neural e sua eficácia na previsão do mercado de ações. Ele reconhece que a abundância de parâmetros pode ser objeto de crítica, mas enfatiza que sua equipe apenas ajustou alguns parâmetros específicos para seu modelo. Eles ainda não consideraram o uso do spread bid-ask como critério de sucesso, mas reconhecem seu potencial para exploração adicional. Zhang acredita que seu modelo tem valor prático para execução comercial e estratégias de criação de mercado. No entanto, ele menciona que, caso se pretenda cruzar o spread, pode ser necessário reduzir a amostragem dos dados, pois as frequentes atualizações nos dados do livro de ofertas podem complicar a execução do negócio. Por fim, ao modelar o livro de pedidos com limite Elo, eles agregam o tamanho total em cada nível de preço, em vez de incluir informações sobre tamanhos de pedidos individuais.

Na seção final, Zhang explica as diferenças entre o mercado por pedido e o mercado por dados de preço. Dados de mercado por pedido permitem rastrear pedidos individuais, o que não é possível com dados de preço de mercado. Com a engenharia de recursos adequada, os dados de mercado por pedido podem fornecer informações adicionais e gerar alfa. Zhang também discute como seu modelo trata as modificações no preço de uma ordem de limite específica, mantendo o tamanho inalterado. Cada nova mensagem com preços atualizados é tratada como uma nova atualização, enriquecendo o conjunto de dados.

No geral, a apresentação de Zihao Zhang mostra a aplicação do aprendizado profundo ao mercado por dados de pedidos, destacando seu potencial para extrair informações valiosas dos dados da microestrutura do mercado. Ao combinar os dados do mercado por pedido e do livro de pedidos com limite, a equipe de Zhang demonstrou a redução da variação do sinal e a geração de sinais preditivos aprimorados. Seu trabalho promete melhorar a execução comercial e as estratégias de criação de mercado, oferecendo uma contribuição valiosa para o campo da análise do mercado financeiro.

  • 00:00:00 Zihao Zhang, um pós-doutorando no Oxford Man Institute e parte do grupo de pesquisa de aprendizado de máquina, apresenta seu trabalho recente com Brian Ling e Stefan Loren na aplicação de um modelo de aprendizado profundo ao mercado por dados de pedido. Zhang começa com uma breve introdução dos dados da microestrutura do mercado, incluindo o livro de pedidos limitados e o mercado por dados de pedidos. Ele enfatiza que o último é indiscutivelmente a fonte de informação mais granular, fornecendo mais atualizações e eventos em comparação com os dados do livro de pedidos limitados e, ainda assim, é amplamente negligenciado na literatura atual. Zhang apresenta seu modelo de aprendizado profundo e discute as arquiteturas de rede que eles projetaram para esse tipo de dados. Ele também enfatiza que o trabalho deles é o primeiro modelo preditivo usando dados de mercado por pedido para prever movimentos de alta frequência e que fornece uma fonte ortogonal de informações que expande o universo da descoberta alfa.

  • 00:05:00 Zihao explica o conceito de livro de ordens de limite, que é um registro de todas as ordens de limite pendentes para um instrumento financeiro em um determinado momento. Ele destaca que, embora os dados do gráfico forneçam informações de baixa frequência, o preço de uma ação é, na verdade, uma série temporal multivariada representada pelo livro de ordens limitadas. Zhang explica como o livro de pedidos limitados é classificado em diferentes níveis de preço com base nos pedidos enviados, e cada nível de preço consiste em muitos pedidos pequenos que são segmentados por diferentes traders. Ele também discute como o livro de pedidos é atualizado quando há uma nova mensagem chegando, que pode adicionar uma nova posição, cancelar um pedido existente ou atualizar pedidos existentes. Zhang observa que os dados derivados do livro de pedidos limitados mostram a relação geral de demanda e oferta para um instrumento financeiro específico, e seu foco é verificar se o uso do mercado por dados de pedidos, que contém informações sobre a colocação e cancelamento de pedidos, pode fornecer informações adicionais para fazer previsões.

  • 00:10:00 Zihao Zhang discute como os dados de ordens de mercado podem ser usados para aprendizado profundo para fazer previsões sobre o movimento do mercado. Embora as sequências de mensagens nos dados de ordens de mercado sejam de dimensão inferior ao livro de ordens de limite, elas fornecem informações adicionais que podem ser usadas para previsões. Zhang explica que as imagens de eventos passados podem ser formadas como uma matriz 2D e inseridas em uma rede neural para previsão. Os recursos resultantes da camada convolucional podem então ser colocados nas camadas neurais recorrentes para aprender a estrutura e as dependências adicionais. A camada final gera previsões com base em uma configuração de classificação usando retornos de limite.

  • 00:15:00 Zihao Zhang, do Oxford-Man Institute, explica a arquitetura de rede usada para fazer previsões a partir dos dados do livro de pedidos com limite, onde os dois primeiros componentes são substituídos por mensagens de traders individuais e as camadas convolucionais são substituídas por uma camada LSTM ou atenção camada. Zhang também explica brevemente o mecanismo de atenção, que é usado para previsão de ponto único neste caso e envolve uma estrutura de codificador e decodificador, com o codificador extraindo recursos significativos dos tempos de entrada e resumindo-os em um estado oculto, enquanto o decodificador gera a previsão . A normalização é usada para determinar se uma ordem é de compra ou venda com base no preço médio.

  • 00:20:00 Nesta seção do vídeo, Zihao Zhang apresenta os resultados do modelo treinado com um grupo de ativos, normalizado para uma escala semelhante e testado em diferentes modelos, como o modelo linear simples, percepções multicamadas, LSTM e modelo de atenção usando dados de grupo de ordem limite e dados de ambiente puro. Os resultados mostram que os sinais preditivos dos dados ambientais são menos correlacionados com os sinais do livro de pedidos de limite, sugerindo que uma combinação desses dois sinais pode reduzir a variância do sinal, se beneficiar da diversificação e produzir melhores sinais preditivos. Assim, o modelo de conjunto que calcula a média dos sinais preditivos de ambos os tipos de dados apresenta o melhor desempenho.

  • 00:25:00 Zihao Zhang discute os benefícios potenciais de incorporar dados de mercado por pedido (MBO) em previsões e menciona a capacidade de fazer engenharia de recursos com os dados. Os resultados para o horizonte de previsão de dois a 20 ticks à frente foram mostrados, com comportamentos semelhantes observados para 50 e 100 ticks à frente. Zhang também responde a questões de implementação de público, incluindo a capacidade de treinar um único modelo usando todos os instrumentos para melhor generalização e a origem dos dados MBO da Bolsa de Valores de Londres. Um membro da audiência questiona o foco no NF1 em vez do PNL, com o qual Zhang concorda e reconhece que o PNL é uma medida de sucesso mais relevante.

  • 00:30:00 Zihao Zhang discute o uso de sinais preditivos e as diferentes maneiras pelas quais eles podem ser definidos, como usar um sinal bruto ou definir um limite para probabilidade do softmax. Ele resume o artigo, que propõe modelar dados de mercado por pedido (MBO) em vez de limitar os dados do livro de pedidos e testar modelos de aprendizado profundo, incluindo o mecanismo de retenção LSTM. Os resultados mostram que uma combinação de dados de MBO e livro de pedidos limitados fornece os melhores resultados. Zhang também aborda questões do público sobre correlação automática entre os movimentos do mercado, filtragem de negociações de ruído e a motivação para usar camadas CNN na modelagem de imagens de ordem de limite.

  • 00:35:00 Nesta seção do vídeo, Zihao Zhang, do Oxford-Man Institute, explica como a carteira de pedidos pode ser tratada como uma estrutura espacial que pode ser explorada usando as mesmas camadas. O uso de uma rede neural convolucional (CNN) para extrair informações de cada nível de preço foi considerado útil para previsões. A camada de memória de longo prazo (LSTM) foi escolhida em vez de percepções multicamadas porque não distorce o fluxo de tempo e resume eventos passados para fazer previsões. Os benefícios de usar um mecanismo de atenção foram limitados devido à propriedade das séries temporais financeiras. O artigo inclui uma descrição detalhada dos hiperparâmetros usados.

  • 00:40:00 Zihao Zhang discute o número de parâmetros usados em métodos de redes neurais e sua eficácia na previsão do mercado de ações. Ele observa que, embora o grande número de parâmetros possa ser uma crítica aos métodos de rede neural, ele e sua equipe ajustaram apenas alguns parâmetros para seu modelo específico. Eles não consideraram o uso do spread bid-ask como um critério de sucesso, mas reconhecem que ele poderia ser mais explorado. Zhang acredita que a aplicação de seu modelo é útil para a execução comercial e estratégias de criação de mercado, mas se alguém quiser cruzar o spread, pode ser necessário reduzir a amostra dos dados para fazer uma negociação, pois os dados do livro podem ter muitas atualizações para Fazer um negócio. Por fim, ao modelar o livro de pedidos com limite Elo, eles agregam o tamanho total em cada nível de preço, em vez de incluir informações sobre tamanhos de pedidos individuais.

  • 00:45:00 Nesta seção, Zihao Zhang, do Oxford-Man Institute, explica as diferenças entre o mercado por ordem e o mercado por dados de preço. Os dados de mercado por pedido permitem rastrear pedidos individuais, o que não é possível com os dados de preço de mercado. Com a engenharia de recursos adequada, os dados do mercado por pedido podem fornecer informações adicionais e gerar alfa. Além disso, Zhang discute como seu modelo trata as modificações no preço de uma determinada ordem de limite, mantendo o tamanho inalterado. Ele explica que cada nova mensagem com preços atualizados é tratada como uma nova atualização.
Zihao Zhang (Oxford-Man Institute) - "Deep Learning for Market by Order Data"
Zihao Zhang (Oxford-Man Institute) - "Deep Learning for Market by Order Data"
  • 2021.10.27
  • www.youtube.com
Next up in the Cornell-Citi webinar series is Dr. Zihao Zhang, who spoke on Tuesday, Oct. 26.Abstract: Market by order (MBO) data - a detailed feed of indiv...
 

Vineel Yellapantula (Cornell MFE '20): "Quantificação de texto em registros da SEC"



Vineel Yellapantula (Cornell MFE '20): "Quantificação de texto em arquivos da SEC"

Vineel Yellapantula apresenta seu projeto de verão, que envolve a aplicação de técnicas de processamento de linguagem natural (NLP) para negociar ações com base em informações textuais encontradas em arquivos da SEC, com foco especial na seção MD&A. O objetivo do projeto é atribuir uma pontuação a cada relatório das 430 ações presentes no mercado americano e analisar seu desempenho agrupando-as em cinco quantis com base na pontuação. Yellapantula utiliza métodos tradicionais, como cosseno e similaridade de Jaccard para determinar a pontuação de similaridade entre textos, com a similaridade de Jaccard provando ser mais consistente ao longo do tempo. Ele também explora a criação de um modelo de análise de sentimento usando redes neurais recorrentes (RNNs) com Keras em um conjunto de dados de texto, alcançando uma precisão impressionante de 87,5% com seu modelo.

Durante a apresentação, Yellapantula enfatiza a importância de selecionar o método adequado para cada problema específico e incorporar dados adicionais para melhorar os resultados. Ele destaca a abundância de informações disponíveis por meio de dados de texto, principalmente em arquivos 10-K, e menciona que os fatores desenvolvidos usando documentos anteriores podem ser mais eficazes do que aqueles baseados apenas no documento atual. Yellapantula aponta várias alternativas para a utilização de técnicas de aprendizado profundo com dados de texto, incluindo luva, word2vec, BERT e RNNs. Ele sugere ainda a incorporação de mais fontes de dados, como arquivamentos 8-K e ciclos de notícias, para aumentar o poder preditivo dos modelos. No entanto, ele reconhece a presença de viés de seleção em seu estudo, pois se concentra em ações de bom desempenho presentes no índice de 2007 a 2020.

Na seção dedicada à análise de sentimentos, Yellapantula explica o processo de criação de um modelo usando RNNs com Keras. As etapas envolvem a tokenização do texto para entender seu significado, reduzindo a dimensionalidade por meio de incorporações e empregando uma camada LSTM e uma camada densa com uma função sigmoide para classificação de sentimentos. Ele demonstra a aplicação dessa abordagem usando revisões do IMDB, restringindo o comprimento da revisão a 500 palavras e preenchendo revisões mais curtas com zeros para manter a consistência. Por meio de avaliação rigorosa, Yellapantula atinge uma taxa de precisão de 87,5% com seu modelo de análise de sentimento.

Além disso, Yellapantula destaca a importância da correlação de informações na determinação da eficácia dos fatores e sua consistência ao longo do tempo. Ele faz referência a um estudo que sugere que empresas com relatórios estáveis tendem a ter um bom desempenho, indicando-o como um fator promissor a ser explorado. Em conclusão, Yellapantula expressa gratidão ao público por seu interesse e espera um maior envolvimento no futuro.

O projeto de Vineel Yellapantula demonstra a aplicação de técnicas de PNL para extrair informações valiosas de informações textuais em arquivos da SEC. Ao atribuir notas aos relatórios e analisar seu desempenho, seu trabalho contribui para a compreensão de como a linguagem pode influenciar a negociação de ações. Além disso, sua exploração da análise de sentimentos usando RNNs mostra o potencial do aprendizado profundo na captura de sentimentos de dados textuais. Por meio de uma cuidadosa seleção de metodologia e da incorporação de fontes de dados adicionais, Yellapantula enfatiza a oportunidade de aumentar a precisão e eficácia de tais modelos.

  • 00:00:00 Nesta seção, Vineel Yellapantula descreve seu projeto de verão que envolvia o uso de técnicas de processamento de linguagem natural (NLP) para negociar ações com base em informações textuais presentes nos arquivamentos da SEC, especificamente na seção MD&A. O projeto se concentrou em encontrar uma pontuação para cada relatório das 430 ações presentes no mercado americano e analisar seu desempenho após agrupá-las em cinco quantis com base na pontuação. Vineel usou métodos tradicionais, como cosseno e similaridade de jaccard, para encontrar uma pontuação de similaridade entre textos, com a similaridade de jaccard provando ser mais consistente ao longo do tempo. Vineel também menciona que técnicas de aprendizado profundo, como RNNs, podem ser usadas para esse fim.

  • 00:05:00 Nesta seção, Vineel Yellapantula explica como criar um modelo de análise de sentimento usando redes neurais recorrentes (RNNs) com keras em um conjunto de dados de texto. O processo envolve a tokenização do texto para entender seu significado, reduzindo a dimensionalidade usando incorporações e, em seguida, usando uma camada LSTM e uma camada densa com uma função sigmoide para classificar o sentimento do texto. Vineel mostra como ele processou os dados usando as revisões do IMDB, limitando a extensão das revisões a 500 palavras e preenchendo as mais curtas com zeros para manter a consistência no comprimento. Ele foi capaz de atingir uma precisão de 87,5% com seu modelo.

  • 00:10:00 Nesta seção do vídeo, Vineel Yellapantula discute a abundância de informações disponíveis por meio de dados de texto, principalmente em arquivamentos 10-K. Ele observa que muitos fatores podem ser desenvolvidos por meio desses arquivamentos, e fatores que usam documentos anteriores podem ser mais eficazes do que aqueles que se concentram apenas no presente documento. Além disso, Yellapantula aponta que existem várias alternativas para o uso de aprendizado profundo com dados de texto, como luva, word2vec, BERT e RNNs. Ele enfatiza que selecionar o método certo para o problema específico é crucial e incorporar mais dados, como arquivamentos 8-K e ciclos de notícias, pode levar a melhores resultados. Por fim, Yellapantula reconhece que há algum viés de seleção em seu estudo, pois ele se concentrou em ações de bom desempenho presentes no índice de 2007 a 2020.

  • 00:15:00 Nesta seção, Vineel Yellapantula discute a importância da correlação de informações para determinar se um fator está funcionando ou não, bem como a consistência dos fatores ao longo do tempo. Ele também menciona um estudo que descobriu que empresas com relatórios estáveis têm bom desempenho, indicando isso como um bom fator a ser explorado. Ele conclui agradecendo ao público pelo interesse e espera vê-los no outono.
Vineel Yellapantula (Cornell MFE '20): "Quantifying Text in SEC Filings"
Vineel Yellapantula (Cornell MFE '20): "Quantifying Text in SEC Filings"
  • 2021.05.12
  • www.youtube.com
CFEM alumnus Vineel Yellapantula discusses his summer project at AbleMarkets under Prof. Irene Aldridge, “Quantifying Sentiment in SEC Filings.” By utilizing...
 

Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (Universidade de Parma)



Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (Universidade de Parma)

Peter Carr apresenta um produto financeiro chamado "stoptions" que combina características de contratos futuros e opções de venda. Stoptions permitem que o proprietário evite mudanças de preços desfavoráveis incorporando um elemento de opção de venda das Bermudas. Carr explica o conceito de opções e fornece um exemplo de opção de três dias com diferentes andares associados a ela. Ele então passa a discutir a avaliação das paradas de um dia e dois dias, sendo que esta última tem dois andares e a flexibilidade de exercer no primeiro ou no segundo dia.

Carr explora ainda mais a avaliação de stop para períodos mais longos, investigando a recursão para trás, a avaliação de uma opção casada e o uso de pseudo-somas. Ele sugere a utilização da distribuição logística para representar as mudanças de preços em opções de venda casadas. O valor das paradas pode ser obtido usando fórmulas simples para opções "at-the-money", e a avaliação e cobertura podem ser feitas analiticamente.

Carr conclui o artigo discutindo os desafios associados à adoção de tais opções pelo mercado. Ele destaca a importância de encontrar um comprador e um vendedor para esses produtos e compartilha suas conversas com potenciais compradores e vendedores. Além disso, Carr reconhece que o modelo de paradas é uma alternativa aos modelos existentes, como Black-Scholes e Bachelier, mas pode não se adequar perfeitamente a todas as situações. No entanto, ele enfatiza que seu modelo visa capturar a multiplicidade de operações binárias com significado especial em finanças.

Em uma seção posterior, Carr e Lorenzo Torricelli propõem um modelo de "paradas" usando um paradigma conjugado e distribuição logística. Este modelo oferece flexibilidade na estrutura a termo com um único parâmetro, permitindo a acomodação de várias estruturas a termo de uma só vez. No entanto, pode não se ajustar perfeitamente ao mercado devido ao seu gráfico de volatilidade implícita descendente. Os autores reconhecem as limitações de seu modelo e reconhecem as inúmeras operações binárias em finanças que seu modelo pretende capturar. Eles discutem a opcionalidade entre um strike e uma única opção, bem como a opcionalidade repetida por meio de pseudossoma. A seção termina com apreciação mútua e expectativa de participar dos seminários uns dos outros.

  • 00:00:00 Peter Carr apresenta "stoptions", um novo produto financeiro que é um híbrido entre um contrato futuro e uma opção de venda. A stoption tem um ativo subjacente e um prazo fixo, e monitoramento diário, com o proprietário acumulando cada mudança de preço no subjacente. A stoption difere de um contrato de futuros porque o proprietário pode evitar uma mudança de preço desfavorável, graças ao elemento de opção de venda. A opção de venda é Bermudan, o que significa que o proprietário pode exercê-la no final de qualquer dia, substituindo a variação de preço daquele dia por um piso, uma constante especificada contratualmente que pode ser qualquer função do tempo.

  • 00:05:00 Peter Carr explica o conceito de opções e como elas funcionam em acordos financeiros. Uma opção é um produto financeiro que permite a escolha de quando interromper a exposição às variações de preços, desde que haja mais de um dia no contrato stop-shooting, proporcionando flexibilidade. A pessoa só pode exercer uma opção uma vez e, nesse ponto, deve exercê-la. O termo opção refere-se a quando interromper a exposição ao subjacente por meio do exercício. Carr ilustra esse conceito com um exemplo de opção de três dias e descreve os três andares diferentes associados a essa opção. O contrato então expira quando se exerce a opção, o que deve acontecer apenas uma vez. Embora tais contratos não sejam negociados atualmente, eles estão embutidos em muitos acordos financeiros.

  • 00:10:00 Peter Carr discute um exemplo de contrato com o estilo de exercício das Bermudas chamado "stoptions". Embora não negocie diretamente, as paradas podem ajudar a entender os swaps das Bermudas e suas diferenças em relação às opções lançadas nos níveis de preço. Ao assumir mudanças de preço iid, a avaliação de parada é reduzida à iteração da função e, ao impor uma suposição distributiva específica nas mudanças de preço, a avaliação é reduzida a uma pseudo adição. Os insights obtidos com as paradas podem ser usados para opções das Bermudas negociadas com liquidez, e Carr passa a explicar a avaliação das paradas de um dia e de dois dias. Stops de um dia pagam um piso fixo, enquanto stops de dois dias têm dois andares e podem ser exercidos no primeiro ou no segundo dia.

  • 00:15:00 nesta seção, Peter Carr discute a recompensa no final do segundo dia se o exercício for feito ali mesmo. Conhecido como u1, é calculado no final do primeiro dia. Carr observa que, como u1 é uma constante conhecida no final do primeiro dia, pode ser assumido no final do primeiro dia. Além disso, Carr sugere fatorar u1 no tempo zero e alterar o resultado a1 para a1 - u1. Isso torna o pagamento semelhante a uma opção de venda casada ou uma opção de venda escrita em u1, com u1 adicionado ao resultado da opção de venda. Carr explica que, uma vez que exista um modelo para avaliar uma opção vanilla, uma opção de vários dias, incluindo uma opção de 2 dias, pode ser avaliada calculando a opção de venda incorporada.

  • 00:20:00 Nesta seção, Peter Carr da NYU e Lorenzo Torricelli da University of Parma discutem como avaliar opções de dois e três dias assumindo que os incrementos de preços são estatisticamente independentes uns dos outros e têm a mesma distribuição. Eles usam uma suposição comum em estatística, conhecida como iid (independente e identicamente distribuída), para uma sequência de variáveis aleatórias. Para avaliar uma opção de venda casada para uma opção de dois dias, eles usam uma notação que envolve uma parte conhecida do retorno, chamada a1, e o preço hoje do ativo subjacente, chamado a2. Para uma opção de três dias, eles introduzem um valor de continuação, que denotam por cv, e usam programação dinâmica para calcular seu valor.

  • 00:25:00 Peter Carr explica o processo de recursão para trás e a avaliação de um put casado. Ele começa no segundo dia porque todas as incertezas que são necessárias no problema são resolvidas no final do segundo dia. Ele define o valor de continuação no dia dois com uma oportunidade de exercício restante, que é o dia três, e então volta ao dia um para calcular o valor do retorno e o valor de continuação. Ele então volta ao tempo zero na data de avaliação e calcula o valor de continuação e o retorno, que é o valor de uma opção casada. A média do payoff aleatório é o valor put casado que foi calculado anteriormente, e os parâmetros que contribuem para a distribuição das variações de preço são conhecidos no tempo zero.

  • 00:30:00 Nesta seção, Peter Carr discute a avaliação de uma put casada com strike A1 cujo subjacente é outra put casada com strike A2. Ele explica que essa valoração envolve iterar uma função, com um parâmetro que pode diferir em momentos diferentes, e permitir que a função se componha. A função que está sendo iterada é uma função de valor de estilo europeu de um dia, casada com baunilha, e Carr observa que uma função que descreve esse valor e itera em forma fechada pode ser encontrada explorando algo chamado equação funcional associativa. Ao avaliar a função de valor casado diretamente e exigir que ela resolva a equação funcional de associatividade, a distribuição neutra ao risco pode ser determinada usando os resultados de Breeden-Litzenberger. A seção conclui com uma explicação de que, com uma função de um argumento e um g invertível, o valor put casado pode ser determinado.

  • 00:35:00 Peter Carr explica o conceito de pseudo-soma, que é uma combinação de dois argumentos em uma função. Usando uma função invertível, essa quantidade pode ser usada para encontrar o valor de uma opção baseada em n por meio de pseudo-somas repetidas dos andares. Para tornar este método livre de arbitragem, a função deve ser escolhida com cuidado e representada como uma expectativa neutra ao risco de seu retorno. Carr revela que o gerador desse método deve ser um logaritmo de qualquer base, e o escalar b deve ser positivo. O put casado também deve ser avaliado apropriadamente usando inversos naturais de log g, o que requer diferenciação duas vezes em relação ao strike para obter a função de distribuição. Em última análise, esse método envolve o retorno a um fator proporcional de b, que não é o desvio padrão, mas é proporcional a ele.

  • 00:40:00 Peter Carr discute o uso da distribuição logística para representar mudanças de preço na opção de venda casada. Ele deriva uma fórmula para o put casado com um strike a1 e uma média subjacente a2, usando a exponencial de um produto financeiro com dois componentes subjacentes. Ele se refere a isso como uma pseudo-soma e expande o conjunto de números reais para incluir menos infinito como o elemento neutro. Ele explica que isso cria uma estrutura monoide comutativa, que só é possível com uma avaliação de opção livre de arbitragem e uma distribuição logística simétrica com caudas exponenciais. A distribuição logística permite uma função de distribuição cumulativa explícita e é considerada mais amigável do que a distribuição normal. Carr sugere que a escala da distribuição logística é uma função crescente do tempo até o vencimento da opção.

  • 00:45:00 Peter discute "stoptions", um contrato que combina as características de opções e swaps. As paradas envolvem a troca de uma variável aleatória logística por outra, onde as variáveis são independentes e identicamente distribuídas. Para valorar uma parada com n dias, é preciso especificar uma função b de t que conecta a largura da distribuição logística ao comprimento do horizonte de tempo. O valor de uma parada bermuda com pisos é dado por fórmulas simples, e a avaliação e cobertura podem ser feitas analiticamente. Para uma parada "at-the-money", o valor cresce de forma simples, pelo logaritmo do tempo.

  • 00:50:00 Peter Carr discute o modelo de precificação "stoptions", que assume incrementos iid e reduz a avaliação à avaliação de função iterada. Ao assumir uma distribuição logística para os incrementos comuns, o modelo simplifica ainda mais para uma pseudosoma de um tipo particular chamada de função exponencial de soma logarítmica. Os preços dos títulos subjacentes precisam ser reais e não negativos devido à responsabilidade limitada. O modelo pode ser estendido para ações, redefinindo o contrato de opção para multiplicar preços relativos em vez de adicionar incrementos de preço. A distribuição resultante para suportar uma variável aleatória positiva é chamada digum de poder conjugado, que é uma distribuição de cauda pesada com assimetria negativa, tornando-a uma boa escolha. Existem futuras oportunidades de pesquisa para este modelo, e ele pode ser aplicado a usos práticos, como contratos sincronizados com reuniões do Federal Reserve.

  • 00:55:00 Peter Carr, professor da NYU, discute a adoção de um tipo de opção pelo mercado e o processo de encontrar um comprador e um vendedor. Ele fala sobre a conversa com o trader chefe de exóticos do Bank of America, que demonstrou interesse em comprar a opção, e os possíveis vendedores, como uma seguradora ou um plano de previdência. O processo de adoção envolve encontrar um comprador, e Peter compartilha que tem uma chamada de Zoom planejada com um amigo que trabalha para uma seguradora a esse respeito. A conversa termina com a discussão de Lorenzo Torricelli sobre modelos financeiros baseados na distribuição logística e nos processos associados.

  • 01:00:00 Nesta seção, Peter Carr discute os detalhes técnicos da estrutura de taxa dos retornos de log do modelo positivo e os retornos nos modelos, que incluem logística de log, logística de desvio e processos de retorno logístico. Ele explica que esses processos são puro salto e podem ser considerados como uma família de tempo infinitamente divisível, para a qual um teorema garante a existência de um processo aditivo estocasticamente contínuo com incrementos independentes. Além disso, esse processo aditivo suporta a distribuição implícita de preços subjacente à fórmula de distribuição de títulos. Carr então explica como esse processo é naturalmente um mercado e como ele possui boas propriedades desejáveis que dão suporte a fórmulas de precificação simples. Por fim, apresenta os resultados de testes numéricos e uma comparação de densidade dos modelos de precificação logística com modelos normais padrão.

  • 01:05:00 Peter Carr discute as diferenças entre a forma da distribuição normal e logística no modelo CPDA. Ele observa que no modelo CPDA, a assimetria e a forma da distribuição mudam com o tempo, enquanto no mundo normal isso não acontece. Ao observar a comparação entre a distribuição normal e logística, ele afirma que as distribuições são bastante semelhantes, mas a curtose pode ser claramente apreciada. Ele também mostra os resultados de sua estrutura de sistema cumulativa, onde observa que pode gerar formas muito mais flexíveis, como uma variante explosiva e um aumento muito acentuado e de curto prazo da assimetria. Finalmente, ele discute as superfícies de volatilidade implícita para os modelos cpda, onde observa que a superfície de volatilidade pode ser flexível com apenas alguns parâmetros.

  • 01:10:00 Peter Carr da NYU e Lorenzo Torricelli da University of Parma discutem seu modelo proposto de "paradas" que usa um paradigma conjugado e distribuição logística para criar uma estrutura de termo completamente flexível com apenas um parâmetro. O parâmetro um cria simultaneamente mais largura e mais assimetria negativa, mas deve estar entre zero e um para evitar que a média do momento não exista. O modelo pode acomodar qualquer estrutura de prazo em um exercício, mas nem sempre se ajusta ao mercado de maneira ideal, uma vez que produz um gráfico com inclinação descendente, ao contrário dos gráficos com inclinação ascendente da volatilidade implícita contra o exercício. Carr e Torricelli reconhecem que seu modelo é uma alternativa aos modelos Black-Scholes e Bachelier, mas antecipam que seu modelo não será bom o suficiente para todas as situações. Eles argumentam que existe uma infinidade incontável de operações binárias com propriedades semelhantes como adição e multiplicação que têm especial importância para finanças, que seu modelo visa capturar.

  • 01:15:00 Nesta seção, Peter Carr e Lorenzo Torricelli discutem a ideia de opcionalidade entre um strike e um single, como uma opção europeia, bem como a opcionalidade repetida como pseudo somatório repetido, que é a opção Bermuda dos remutantes. Eles mencionam a importância de ter em mente que há mais de duas taxas de operações binárias ao escolher uma distribuição e encerram a discussão agradecendo uns aos outros e ansiosos para participar dos seminários uns dos outros.
Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (University of Parma)
Peter Carr (NYU) "Stoptions" feat. Lorenzo Torricelli (University of Parma)
  • 2021.04.14
  • www.youtube.com
Abstract: We introduce a new derivative security called a stoption. After paying an upfront premium, the owner of a stoption accrues realized price changes ...
 

Lorenzo Torricelli (Universidade de Parma) - "Processos Logísticos Aditivos na Precificação de Opções"



Lorenzo Torricelli (Universidade de Parma) - "Processos Logísticos Aditivos na Precificação de Opções"

Lorenzo Torricelli, um distinto professor da Universidade de Parma, investiga as complexidades da precificação de opções explorando o modelo logístico aditivo e a especificação autossimilar. Em sua esclarecedora apresentação, ele elucida a fórmula de precificação de opções vanilla usando esses modelos inovadores e exemplifica sua aplicação apresentando uma comparação de densidade entre o modelo de precificação logística e os modelos normais tradicionais.

Além disso, Torricelli realiza uma análise de benchmark da estrutura a termo cumulativa para o modelo logístico contra uma revolução linear da estrutura a termo para modelos homogêneos. Suas observações perspicazes revelam que o modelo logístico oferece significativamente mais flexibilidade na modelagem da estrutura temporal, proporcionando assim uma vantagem notável sobre as abordagens convencionais.

Para fornecer uma compreensão abrangente, Torricelli também examina as superfícies de volatilidade associadas a esses modelos. Ele observa a presença de um desvio positivo no modelo decorrente da distribuição distorcida dos retornos logarítmicos e da curtose da distribuição logística. No entanto, ele destaca a ausência de desvio na própria distribuição logística, pois apresenta simetria. Torricelli discute ainda o impacto dos parâmetros modais na estrutura a termo da volatilidade, reconhecendo o potencial de melhoria na parametrização escolhida.

Em conclusão, Torricelli enfatiza que as fórmulas de opções derivadas desses modelos são explícitas e bem conhecidas, facilitando sua implementação prática. Notavelmente, ele elogia a impressionante velocidade demonstrada durante o teste de desempenho. Como prova de transparência e colaboração acadêmica, Torricelli planeja tornar o código associado a esses modelos publicamente acessível, beneficiando tanto pesquisadores quanto profissionais.

  • 00:00:00 Lorenzo Torricelli da Universidade de Parma apresenta modelos financeiros baseados na distribuição logística, começando com equações de valoração para funções de opção e funções para valorar a cabine de mérito. Tomando a derivada em relação a k, obtém-se a distribuição implícita do preço do título, e a função logística é vista como associada ao valor real subjacente, enquanto a distribuição logística assimétrica está associada ao processo de preço positivo proveniente da avaliação do merit put . A estrutura infinitamente divisível das distribuições é considerada como uma família temporal, verificando-se a existência de um processo aditivo, resultando em processos estocasticamente contínuos com incrementos independentes que suportam a distribuição de preços implícita e determinam a fórmula do enunciado.

  • 00:05:00 Lorenzo Torricelli, professor da Universidade de Parma, está discutindo o modelo logístico aditivo e a especificação autossimilar na precificação de opções. Ele explica a fórmula para precificar as opções vanilla usando os modelos e as instancia em termos do preço da função do termo. Ele mostra uma comparação de densidade entre o modelo de precificação logística e os modelos normais e observa que a forma da distribuição do modelo logístico muda com o tempo, enquanto a forma da distribuição normal não. Ele também compara a estrutura de termo cumulativa para o modelo logístico contra uma revolução linear da estrutura de termo para modelos homogêneos e observa formas muito mais flexíveis com o primeiro.

  • 00:10:00 Lorenzo Torricelli discute os gráficos para o modelo CPDA e as superfícies de volatilidade implícita para os modelos SLA e CPDA. As superfícies de volatilidade mostram que há um desvio no modelo positivo devido à distribuição distorcida dos log retornos e à curtose da distribuição logística. No entanto, não há desvio na distribuição logística, pois é simétrica. Torricelli menciona que os parâmetros modais também impactam a estrutura a termo da volatilidade de forma semelhante e que há espaço para melhorias na parametrização escolhida. No geral, as fórmulas das opções são explícitas e conhecidas e o teste de velocidade foi muito rápido. O código também será divulgado.
Lorenzo Torricelli (University of Parma) - "Additive Logistic Processes in Option Pricing"
Lorenzo Torricelli (University of Parma) - "Additive Logistic Processes in Option Pricing"
  • 2021.04.12
  • www.youtube.com
On April 13th, 2021, as part of the Cornell-Citi Financial Data Science Seminar Series, Lorenzo Torricelli explains his work on logistic models in conjunctio...
 

Yumeng Ding (Cornell MFE '20) - "Interpretando modelos de aprendizado de máquina"



Yumeng Ding (Cornell MFE '20) - "Interpretando modelos de aprendizado de máquina"

Yumeng Ding, um pesquisador proficiente, investiga o domínio da interpretação de modelos de aprendizado de máquina para previsões de preços de ações. Em sua análise abrangente, ela explora uma variedade de métodos de interpretabilidade, incluindo gráficos de dependência parcial, importância de recursos de permutação, estatísticas de borda e LIME, para esclarecer o funcionamento interno desses modelos. Ao empregar esses métodos, Ding pretende desvendar a contribuição de fatores individuais e seus efeitos interativos na previsão dos preços das ações.

O estudo de Ding gira em torno de três tipos de fatores: técnico, qualidade e valor, que são utilizados como entradas para vários modelos de aprendizado de máquina, como classificadores e regressões. Aproveitando os métodos de interpretabilidade mencionados anteriormente, ela desvenda as intrincadas relações entre esses fatores e as previsões de preços de ações. Por meio de backtesting rigoroso, Ding descobre que os modelos não lineares superam os modelos lineares em termos de desempenho. Além disso, ela observa que os efeitos de diferentes fatores apresentam variações temporais, destacando a natureza dinâmica da previsão do preço das ações. Por fim, Ding identifica o AdaBoost como o modelo mais adequado para seu cenário específico.

É importante ressaltar que Ding ressalta a importância dos métodos de interpretabilidade na compreensão dos modelos de aprendizado de máquina. Ela ressalta que, embora a abordagem vetorial forneça informações rápidas sobre as interações mais preditivas, ela não revela a qualidade dessas interações. Ding enfatiza o valor de empregar gráficos bidimensionais de dependência parcial para visualizar interações mais simples de forma eficaz. Além disso, ela recomenda o método de plotagem de linha para aprofundar as complexidades das interações individuais e visualizar os efeitos locais, desde que os dados sejam suficientemente claros do ruído.

Resumindo suas descobertas, Ding enfatiza duas conclusões importantes de seu projeto. Em primeiro lugar, ela confirma que os modelos de aprendizado de máquina superam as regressões lineares ingênuas na maioria dos cenários devido à sua capacidade de capturar efeitos de interação complexos. Em segundo lugar, ela destaca a viabilidade de interpretar modelos de aprendizado de máquina, aproveitando uma variedade de métodos de interpretabilidade. Essas técnicas permitem que os pesquisadores elucidem as contribuições individuais dos fatores e compreendam suas influências interativas nas previsões.

  • 00:00:00 Yumeng Ding discute sua abordagem para interpretar modelos de aprendizado de máquina usados para fazer previsões de preços de ações. Eles utilizaram três tipos de fatores - técnico, qualidade e valor - para fazer previsões usando vários modelos de aprendizado de máquina, como classificadores e regressões. Para interpretar seus modelos, eles usaram métodos de interpretabilidade, como gráficos de dependência parcial, importância de recursos de permutação, estatísticas de borda e LIME, que permitiram a quebra de efeitos de recursos individuais e suas interações. Por meio do backtesting, eles descobriram que os modelos não lineares superavam os modelos lineares e os efeitos dos fatores mudavam com o tempo. Eles concluíram que o AdaBoost era o melhor modelo para seu cenário.

  • 00:05:00 Yumeng Ding discute vários métodos para interpretar modelos de aprendizado de máquina. Ela enfatiza que, embora a abordagem vetorial seja rápida e eficiente em encontrar as interações mais preditivas, ela apenas mostra a força em vez da qualidade das interações. Ela destaca que a dependência parcial bidimensional é necessária para visualizar algumas interações fáceis. Ding sugere que o método de plotagem de linhas é adequado para mergulhar nos detalhes das interações individuais e visualizar as interações locais, desde que os dados não sejam muito ruidosos. Ela conclui observando que o projeto destaca duas conclusões: em primeiro lugar, os modelos de aprendizado de máquina superam as regressões lineares ingênuas na maioria dos cenários devido à sua capacidade de capturar efeitos de interação. Em segundo lugar, a interpretação de modelos de aprendizado de máquina é possível com os vários métodos de interpretabilidade disponíveis, que nos permitem explicar como os fatores individuais contribuem para as previsões, tanto individual quanto interativamente.
Yumeng Ding (Cornell MFE '20) - "Interpreting Machine Learning Models"
Yumeng Ding (Cornell MFE '20) - "Interpreting Machine Learning Models"
  • 2021.03.12
  • www.youtube.com
March 9, 2021CFEM alumna Yumeng Ding discusses her team capstone project, which was titled, “Interpreting Machine Learning Models.” By utilizing Machine Lear...
 

Silvia Ruiz (Cornell MFE '20): "Como prever movimentos de estoque usando técnicas de PNL"



Silvia Ruiz (Cornell MFE '20): "Como prever movimentos de estoque usando técnicas de PNL"

Silvia Ruiz, recém-formada no programa Cornell MFE, compartilha insights de seu projeto focado na previsão de preços de ações usando técnicas de NLP (Natural Language Processing). O objetivo da pesquisa de sua equipe era explorar a relação entre arquivamentos corporativos, como relatórios 10-K e 10-Q, e o impacto subsequente nos preços das ações. Para conseguir isso, eles coletaram um conjunto de dados substancial composto por 1.095 relatórios do site EDGAR, abrangendo 50 empresas em cinco setores do S&P 500.

Inicialmente, Ruiz e sua equipe experimentaram modelos baseados em dicionário, mas encontraram limitações em sua eficácia. Para resolver isso, eles incorporaram métodos avançados como o modelo word to back e Finberg, que se mostraram cruciais para compreender as nuances contextuais incorporadas nos arquivos corporativos. Além disso, eles empregaram várias medidas de sentimento, incluindo polaridade e complexidade de palavras, bem como um modelo xg boost, para prever movimentos de preços de ações.

A precisão de suas previsões foi avaliada em dois períodos de tempo diferentes. No curto prazo, seu modelo alcançou uma precisão notável de 61%, enquanto no longo prazo demonstrou uma precisão respeitável de 53%. Aproveitando essas previsões como sinais para decisões de investimento, eles superaram um portfólio igualmente ponderado. No entanto, Ruiz destaca a necessidade de mais pesquisas em diversos setores para aumentar a precisão e generalização de suas descobertas.

Silvia Ruiz conclui sua discussão oferecendo generosamente suas informações de contato e fornecendo um link para o repositório de seu projeto no Github. Este gesto encoraja consultas de acompanhamento e promove a colaboração no avanço da compreensão e aplicação de técnicas de PNL no domínio da previsão de preços de ações.

  • 00:00:00 Silvia Ruiz, uma recém-formada da Cornell MFE, fala sobre seu projeto sobre se os preços das ações podem ser previstos usando técnicas de PNL. Sylvia e sua equipe tiveram como objetivo investigar o impacto de registros corporativos como 10k e 10q nos preços das ações de uma empresa e coletaram dados de 1.095 relatórios do site edgar de 50 empresas do S&P 500 de cinco setores. Eles descobriram que o uso de modelos baseados em dicionário não era eficaz e exigia os métodos da palavra para voltar ao modelo e Finberg para entender o contexto. Por fim, eles usaram uma variedade de medidas de sentimento, incluindo polaridade e complexidade de palavras, e executaram um modelo xg boost com a variável de previsão dos preços das ações.

  • 00:05:00 Silvia Ruiz explica como ela tentou prever os movimentos de estoque usando técnicas de PNL. Ela menciona que sua equipe contabilizava os retornos do mercado tomando os preços das ações antes da divulgação do relatório e cinco dias depois, comparando-os com o retorno do mercado. A precisão de longo prazo foi de 61%, enquanto a de longo prazo foi de 53%, e eles usaram suas previsões como sinais para investir em ações. Sua estratégia foi mais eficaz do que o portfólio igualmente ponderado, mas mais pesquisas são necessárias, principalmente em diferentes setores, para obter resultados mais precisos. Ela compartilha suas informações de contato e link do Github para mais consultas.
Silvia Ruiz (Cornell MFE '20): "How to Predict Stock Movements Using NLP Techniques"
Silvia Ruiz (Cornell MFE '20): "How to Predict Stock Movements Using NLP Techniques"
  • 2021.05.12
  • www.youtube.com
Silvia Ruiz will discuss her CFEM capstone project, which was titled, “How to Predict Stock Movements Using NLP Techniques.” By utilizing NLP techniques, the...
 

Charles-Albert Lehalle: "Uma tentativa de entender o processamento de linguagem natural"



Charles-Albert Lehalle: "Uma tentativa de entender o processamento de linguagem natural"

Nesta apresentação em vídeo, Charles-Albert Lehalle e sua equipe investigam as aplicações do Processamento de Linguagem Natural (NLP) no domínio financeiro. Sua discussão gira em torno de três áreas principais: análise de sentimentos, previsão de preços de ações e modelagem de custos de transação. Eles reconhecem os desafios associados à PNL, como o risco de overfitting e viés nas incorporações, e propõem possíveis soluções, incluindo aprendizado multitarefa e expansão de léxicos. A equipe explora tanto o potencial quanto as limitações da PNL no setor financeiro, enfatizando a importância de entender o contexto e os padrões de linguagem em diferentes setores.

Lehalle e sua equipe apresentam seus próprios experimentos usando técnicas de PNL, fornecendo informações valiosas sobre como a PNL pode comprimir informações e oferecer indicadores informativos para analistas financeiros. Eles destacam os desafios de empregar o NLP em finanças, incluindo a exigência de conhecimento específico do domínio e a dificuldade de extrair informações significativas de dados de texto não estruturados. Preocupações éticas em torno do uso de NLP em finanças, como alavancar dados de mídia social para fins comerciais, também são discutidas.

Ao longo da apresentação, Charles-Albert Lehalle compartilha sua experiência e conhecimento sobre vários tópicos de PNL. Ele explica o uso de métodos NLP baseados em léxico e em incorporação em finanças, propondo uma combinação de ambas as abordagens para capturar recursos lexicais e probabilísticos em dados de texto. Os desafios de distinguir entre sinônimos e antônimos em incorporações são abordados, e a equipe de Lehalle explora modelos generativos para controlar a estrutura e o sentimento do texto. É enfatizada a importância de entender as incorporações e os modelos de referência, como matrizes que representam distribuições de palavras conjuntas.

Lehalle explora ainda mais a importância do contexto na PNL, discutindo como as incorporações podem ser tendenciosas para palavras positivas e negativas com base no contexto. Ele explica o uso de cadeias de Markov para estruturar modelos de matrizes de referência e apresenta experimentos para identificar sinônimos em incorporações. As limitações do NLP na captura de nomes de empresas e suas polaridades associadas são reconhecidas, juntamente com a sugestão de aprendizado multitarefa para incorporações supervisionadas. Os palestrantes também abordam o desequilíbrio de palavras positivas e negativas do Lexicon Loughran-McDonald e os desafios de processar a ironia em textos financeiros.

A apresentação termina com uma visão geral de um projeto de Sylvia Ruiz, recém-formada em Engenharia Financeira da Cornell. O projeto se concentra na previsão de preços de ações usando técnicas de PNL, especificamente coletando seções de discussão gerencial de registros 10-K e 10-Q de 50 empresas S&P 500 e analisando o sentimento para avaliar seu impacto nos preços das ações. Lehalle discute as limitações dos modelos baseados em dicionário e explica como sua equipe expandiu o dicionário, empregou o FinBERT para entender o contexto e utilizou vários recursos para medir o sentimento. Eles alcançaram um desempenho melhor do que um portfólio igualmente ponderado, tanto no curto quanto no longo prazo.

Em resumo, Charles-Albert Lehalle e sua equipe lançam luz sobre o potencial e os desafios da PNL em finanças. Eles oferecem insights, experimentos e estratégias para aplicar as técnicas de PNL de forma eficaz, enfatizando a importância do uso responsável e uma compreensão profunda da tecnologia e do domínio financeiro.

  • 00:00:00 O palestrante apresenta Charles-Albert Lehalle, especialista em finanças quantitativas, que fará uma apresentação de 40 minutos sobre PNL. O palestrante menciona as publicações anteriores de Lehalle sobre finanças quant, que abrangem vários tópicos sobre PNL. O palestrante também apresenta Sylvia Ruiz, que recentemente se formou em Cornell e trabalhou em um projeto de PNL com a Rebellion Research. A palestra visa ajudar as pessoas a começar com a PNL, que muitas vezes pode parecer intimidante devido à necessidade de coleta de dados e aplicação de pacotes. O palestrante aborda brevemente o uso de PNL em finanças e menciona que a equipe de Lehalle está usando PNL há mais de um ano, com alguns preditores e estratégias em produção. A palestra é baseada em um trabalho em andamento de Mengedar, e o palestrante incentiva o público a enviar links ou artigos que eles acham que devem ser incluídos na apresentação.

  • 00:05:00 Charles-Albert Lehalle discute as possibilidades de usar o Processamento de Linguagem Natural (NLP) na negociação financeira. Ao utilizar o NLP, os traders podem acessar rapidamente informações em forma de texto, como transcrições de anúncios de ganhos, mídia social e notícias financeiras. Esta informação pode dar aos comerciantes uma vantagem de velocidade na compra antes dos outros e, assim, mover o preço para cima. Além disso, os comerciantes podem usar o NLP para cruzar uma grande quantidade de texto em muitas empresas e classificá-los com base nos retornos esperados. No entanto, Lehalle observa que a PNL tem um alto risco de superalimentação devido à quantidade de parâmetros possíveis. No entanto, ao compreender as informações recebidas, os comerciantes podem ajustar suas estratégias de acordo com o lucro potencial.

  • 00:10:00 Charles-Albert Lehalle discute o uso de métodos de processamento de linguagem natural (PNL) baseados em léxico e em incorporação em finanças. Ele explica como os sistemas baseados em léxico são construídos por analistas humanos que anotam muitos textos para identificar sentimentos positivos ou negativos sobre ações, enquanto os sistemas baseados em incorporação modelam o contexto probabilístico das palavras. Lehalle propõe que esses dois métodos sejam combinados para capturar as características lexicais e probabilísticas dos dados de texto nos mercados financeiros. Ele também descreve sua abordagem para explorar como as incorporações podem capturar sinônimos e antônimos, o que pode ter implicações práticas para a análise preditiva em finanças.

  • 00:15:00 Nesta seção, Charles-Albert Lehalle discute os desafios envolvidos no processamento de linguagem natural (PNL). Embora a captura de sinônimos possa reduzir a complexidade de um texto, as incorporações podem ter dificuldade em distinguir entre sinônimos e antônimos. Isso cria um desafio se você deseja injetar seu léxico em um sistema que não é capaz de diferenciá-los. A equipe de Lehalle está tentando desenvolver um modelo generativo de um texto para controlar a estrutura do texto e do sentimento e ver se eles podem recuperar o que colocaram no idioma. Eles planejam usar um grande corpus de notícias financeiras para aplicar essas técnicas e analisar como elas funcionam. Aspectos teóricos deste processo incluem o uso do método keygram word 2x e uma matriz estocástica.

  • 00:20:00 Nesta seção, Charles-Albert Lehalle explica o processamento de linguagem natural usando o modelo skip-gram word2vec. Ele discute a decomposição de baixo escalão da matriz para incorporações e como ela pode ser reescrita como uma rede neural com uma saída máxima suave. Ele também explica como as cabeças de atenção em modelos como o BERT são mais locais, com muitas incorporações locais abordando o contexto. Ele enfatiza a importância de entender os embeddings e o modelo de referência, que é uma grande matriz oculta usada para otimizar a função de perda.

  • 00:25:00 Charles-Albert Lehalle explica o conceito de modelos de referência no processamento de linguagem natural. Ele discute os diferentes tipos de modelos de referência, incluindo uma grande matriz que representa a distribuição conjunta de todas as palavras, uma estimativa estatística do verdadeiro modelo de referência e o modelo de referência oculto que gerou o texto. Ele também fala sobre os sinônimos frequentistas, que são palavras que possuem o mesmo encaixe mesmo sendo antônimos do ponto de vista semântico, devido ao fato de aparecerem frequentemente na mesma posição em um corpus. Esse entendimento é importante na discussão da ética no processamento de linguagem natural.

  • 00:30:00 Nesta seção, Lehalle discute a importância do contexto no processamento de linguagem natural e dá exemplos de como as incorporações podem ser tendenciosas para palavras positivas e negativas, dependendo do contexto. Ele também explica como gerar um corpus usando uma cadeia de Markov pode ajudar a estruturar o grande modelo de matriz de referência para palavras e como a função de perda para uma palavra ser corretamente incorporada é uma entropia cruzada entre duas distribuições. O primeiro experimento apresentado envolve projetar linguagens sintéticas com sinônimos e tentar recuperar os sinônimos como blocos nos embeddings. No entanto, os embeddings são pobres em identificabilidade, dificultando a recuperação de um espaço de baixa dimensão a partir de um grande embedding. Finalmente, as semelhanças de cosseno entre as incorporações de sinônimos são computadas.

  • 00:35:00 Charles-Albert Lehalle discute o uso do Lung Hand Micro Lexicon para treinar incorporações para fazer uma distinção entre manchetes de notícias financeiras positivas e negativas. Ele observa que as incorporações não são projetadas para diferenciar sinônimos que aparecem frequentemente juntos, como as palavras em títulos, portanto, usar incorporações em títulos para identificar palavras positivas e negativas é um desafio. No entanto, ao olhar para o corpo de notícias financeiras ao longo do tempo, as métricas de similaridade de cosseno mostram que as palavras positivas e negativas são claramente distinguíveis umas das outras. Lehalle também mostra que nomes de empresas, como bancos, durante uma crise financeira, estão mais próximos de palavras negativas do que positivas. No geral, o posicionamento do vocabulário nas incorporações afeta muito sua capacidade de distinguir entre palavras positivas e negativas em notícias financeiras.

  • 00:40:00 O palestrante Charles-Albert Lehalle discute as limitações do processamento de linguagem natural (NLP) quando se trata de nomes de empresas e suas polaridades associadas, bem como a não estacionariedade dos embeddings. Ele sugere que os embeddings se concentram em priorizar a distribuição das palavras da vizinhança, dificultando a diferenciação entre frequências e sinônimos. Lehalle continua sugerindo que o aprendizado multitarefa, treinando incorporações simultaneamente com uma tarefa supervisionada por um léxico polarizado, pode ser uma boa ideia. Além disso, ele observa que os nomes das empresas podem ser um indicador útil de reputação e que as notícias geradas pelo NLP são uma preocupação maior do que as empresas que tentam enganar os algoritmos do NLP. Por fim, ele explica que os algoritmos de NLP poderiam ser usados para extrair informações e rotulá-las com um novo valor, permitindo a dedução de estimativas de analistas em vez de preços.

  • 00:45:00 Nesta seção do vídeo, os palestrantes discutem o desequilíbrio entre palavras negativas e palavras positivas no Loughran-McDonald Lexicon, que foi criado por humanos e é usado no processamento de linguagem natural (NLP) para análise de textos financeiros. Eles sugerem que o desequilíbrio pode ser devido à natureza legal e estruturada de documentos financeiros escritos por advogados que tendem a ser protetores. Os palestrantes também abordam o uso de NLP na modelagem de custos de transação e os desafios de processar a ironia em longos textos financeiros. Em seguida, eles apresentam Sylvia Ruiz, recém-formada pelo programa Cornell Financial Engineering, que apresenta o projeto de sua equipe sobre previsão de preços de ações usando técnicas de PNL. O projeto concentrou-se em coletar seções de discussão gerencial dos arquivos 10K e 10T de 50 empresas no S&P 500 e analisar o sentimento para determinar o impacto nos preços das ações.

  • 00:50:00 Charles-Albert Lehalle discute os problemas com o uso de modelos baseados em dicionário para processamento de linguagem natural (NLP) e como ele e sua equipe usaram técnicas de PNL para melhorar seus modelos. Ele explica como eles expandiram seu dicionário para ter uma classificação de palavras mais equilibrada usando um modelo skipgram e o modelo FinBERT para entender o contexto. Eles então usaram vários recursos para medir o sentimento e a complexidade da palavra antes de executar um modelo xg boost para prever se o preço de uma ação subiria ou cairia. Embora sua precisão fosse relativamente baixa, eles conseguiram criar uma estratégia com desempenho melhor do que um portfólio igualmente ponderado, tanto no curto quanto no longo prazo.

  • 00:55:00 Charles-Albert Lehalle discute o potencial do processamento de linguagem natural (PNL) no setor financeiro. Ele sugere que mais pesquisas são necessárias e que pode ser benéfico dividir a indústria em setores porque cada setor tem um padrão de linguagem diferente. Além disso, ele desaconselha tentar entender simultaneamente o texto e prever coisas como expectativas, pois a PNL pode ser melhor usada para comprimir informações e fornecer indicadores informativos. Em vez disso, os analistas podem usar seu próprio raciocínio para comparar as previsões com as expectativas e criar um "previsor surpresa". No geral, Lehalle enfatiza a necessidade de entender as limitações e pontos fortes da PNL antes de tentar integrá-la à análise financeira.

  • 01:00:00 Nesta seção, os palestrantes discutem o uso de treinamento adversário para modelos de PNL para aumentar sua robustez. Essa técnica pode ser aplicada para lidar com preconceitos na linguagem, como neutralidade de gênero. Os palestrantes também consideram o uso de treinamento adversário para quebrar a neutralidade entre palavras positivas e negativas, mas alertam que isso pode não ser adequado para a construção de estratégias de negociação. A discussão passa então para os desafios de extrair seções de documentos financeiros, como arquivamentos 10K, devido a diferenças em como as empresas rotulam e formatam suas seções.

  • 01:00:00 Os palestrantes discutem o uso de treinamento adversário para modelos de PNL para aumentar sua robustez. Essa técnica pode ser aplicada para lidar com preconceitos na linguagem, como neutralidade de gênero. Os palestrantes também consideram o uso de treinamento adversário para quebrar a neutralidade entre palavras positivas e negativas, mas alertam que isso pode não ser adequado para a construção de estratégias de negociação. A discussão passa então para os desafios de extrair seções de documentos financeiros, como arquivamentos 10K, devido a diferenças em como as empresas rotulam e formatam suas seções.

  • 01:05:00 Nesta seção do vídeo, Charles-Albert Lehalle explica que não comparou suas próprias incorporações e o índice de sentimento de Bloomberg, pois não era o objetivo do estudo. Ele acredita que os preditores da Bloomberg provavelmente estão tentando construir preditores em vez de índices, que são difíceis de comparar. Ele revela que existem artigos sobre a construção de fatores de precificação de ativos empíricos usando NLP e explica que o NLP pode ser usado para criar vários fatores com base nas informações contidas no corpus, como o fator 10k ou um fator de seção de risco. Portanto, a PNL é apenas uma técnica e o corpus é o fator mais importante neste caso.
Charles-Albert Lehalle: "An Attempt to Understand Natural Language Processing"
Charles-Albert Lehalle: "An Attempt to Understand Natural Language Processing"
  • 2021.02.17
  • www.youtube.com
Full Title: "An Attempt to Understand Natural Language Processing And Illustration On A Financial Dataset"Speaker: Charles-Albert Lehalle (Capital Fund Manag...