Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 3358

 
Discutido há muito tempo, acabou com a otimização excessiva de f-y :)
 
Andrey Dik #:
Discutimos esse tópico na época do Porksaurus, Matemat, Granite e Metadriver, isso há muito tempo.
Não vi esse tópico deles, talvez eu o tenha perdido (eu costumava ler mais o Cyberpaw). Trata-se de modelos que produzem distribuições de probabilidade como resultados, em vez de valores numéricos específicos. Não quero dizer que essa seja uma abordagem completamente nova, mas nos últimos anos houve um aumento notável no interesse por esse tópico.
 
Aleksey Nikolayev #:
Não vi esse tópico, talvez eu o tenha perdido (eu costumava ler mais o Cyberpawk). Trata-se de modelos que produzem distribuições de probabilidade como resultados em vez de valores numéricos específicos. Não quero dizer que essa seja uma abordagem completamente nova, mas houve um aumento notável do interesse nesse tópico nos últimos anos.

Bem, houve muitas tentativas, mas não conheço seus resultados públicos bem-sucedidos. A coisa mais simples que foi feita é tratar a saída de um único neurônio como a probabilidade de uma venda/compra no intervalo [-1,0;1,0], mas nada de bom resultou disso, e aplicar um limite não ajuda.

Outra coisa é que é possível aplicar a distribuição das saídas dos neurônios como uma probabilidade, mas não vi ninguém fazer isso. Por exemplo, para os mesmos sinais de venda/compra do neurônio de saída da rede durante o treinamento, a distribuição dos valores pode ser muito diferente, portanto, o comportamento em OOS será diferente.

Além disso, há muito tempo mostrei gráficos de treinamento e comportamento em OOS, em que a linha não se rompe, é claro, sem propagação, e a entrada recebeu incrementos de mashka simples de diferentes períodos de tempo, elementares. E aqui alguns gênios subitamente chegaram a uma conclusão "brilhante" de que o spread afeta o comportamento em OOS.

 
Andrey Dik #:

Bem, houve muitas tentativas, mas não conheço seus resultados públicos bem-sucedidos. A coisa mais simples que foi feita foi tratar a saída de um único neurônio como uma probabilidade de venda/compra no intervalo [-1,0;1,0], mas nada de bom resultou disso, e aplicar um limite não ajuda.

Outra coisa é que você pode aplicar a distribuição das saídas dos neurônios como uma probabilidade, mas não vi ninguém fazer isso. Por exemplo, com os mesmos sinais de venda/compra do neurônio de saída da rede durante o treinamento, a distribuição dos valores pode ser muito diferente, de modo que o comportamento em OOS será diferente.

Além disso, há muito tempo mostrei gráficos de treinamento e comportamento em OOS, em que a linha não se rompe, é claro, sem propagação, e a entrada recebeu incrementos de mashka simples de diferentes períodos de tempo, elementares. E aqui alguns gênios subitamente chegaram a uma conclusão "brilhante" de que o spread afeta o comportamento em OOS.

Ainda assim, a classificação é um caso especial relativamente simples, no qual a distribuição da saída é discreta e, portanto, tudo é relativamente fácil de ser reduzido ao "ponto" usual, problema numérico de MO.

Uma abordagem mais ampla é interessante, com modelos para os quais o resultado não é um número, mas qualquer distribuição (dentro de limites razoáveis, é claro). Um exemplo é o MO usado na teoria da confiabilidade (em que a distribuição da vida útil é estudada) ou na previsão meteorológica probabilística (em que uma distribuição de probabilidade é construída para a quantidade possível de precipitação, por exemplo).

 
Aleksey Nikolayev #:

...

Uma abordagem mais ampla é interessante, com modelos para os quais o resultado não é um número, mas qualquer distribuição (dentro de limites razoáveis, é claro). Um exemplo seria o MO usado na teoria da confiabilidade (em que a distribuição da vida útil é estudada) ou na previsão meteorológica probabilística (em que uma distribuição de probabilidade é construída para a possível quantidade de chuva, por exemplo).


Era isso que eu estava dizendo, para tentar usar a distribuição, e não os valores de saída em si, como um classificador.
 
As probabilidades são derivadas de um modelo já treinado. Caso contrário, por que você ensinaria probabilidades a ele? Se as probabilidades são conhecidas, por que treiná-lo?

Momentos de distribuições em modelos de regressão para estimativa de intervalos? Não, você nunca ouviu falar disso? Você já fez muitas previsões com eles?

Há 20 anos, você sabia tudo, mas tinha vergonha de dizer? É muito tempo para se afastar da otimização excessiva das fases.

É triste, 20 anos...
 

Formando uma distribuição de probabilidade durante o treinamento, não depois.

E depois do treinamento, qual é o objetivo de fazer qualquer coisa? Uma máquina hipotética não adquirirá novos conhecimentos se for ajustada com uma chave de fenda após o treinamento.

 
Maxim Dmitrievsky #:

Já descrevi o exemplo acima. Há um classificador que passa no OOS, mas os retornos são distribuídos em 60/40. Você não gosta disso, aumenta o limite de decisão, mas a situação não muda e, às vezes, fica ainda pior. Você se pergunta por que isso acontece.

A explicação é dada: porque no caso de uma estimativa de probabilidade real, a situação deve mudar.

Uma solução é dada.


Como você encontra idiotas como esse Karpov?

A cabeça do homem está uma bagunça. O homem é incapaz de pensar de forma coerente. É simplesmente assustador!

Desde os primeiros minutos, ele simplesmente afirma que o classificador não fornece probabilidade. E onde você pode obter a probabilidade sem usar o que o classificador fornece?

 
СанСаныч Фоменко #:

Como você encontra idiotas como esse Karpov?

A cabeça do homem está uma bagunça. O homem é incapaz de pensar de forma coerente. Isso é simplesmente assustador!

Bem, você também foi convidado para trabalhar na Inglaterra com seu mush? )

o homem não se importa nem um pouco, ele está se saindo bem.

Não está entendendo o ponto != está entendendo errado. Essas pessoas têm uma formação um pouco diferente, e esse é provavelmente o problema.

É óbvio há muito tempo que o tópico precisa de sangue novo. Eu também já sou um oldfag. Os novos virão e aparecerão, se o fórum não ficar mofado no final, é claro.

A pior parte é que eu entendo as mudanças no cérebro que ocorrem com a idade e por que as pessoas raciocinam dessa forma e não daquela. Essa obviedade às vezes é hilária, mas não há como fugir dela.

 
Maxim Dmitrievsky #:

Bem, você também foi convidado para trabalhar na Inglaterra com seu mingau? )

o homem não se importa nem um pouco, ele está indo bem.

Não está entendendo a ideia != não está fazendo a coisa certa. Essas são pessoas com uma formação um pouco diferente, provavelmente esse é o problema.

Há muito tempo é óbvio que o tópico precisa de sangue novo. Eu também já sou um oldfag. Os novos virão e aparecerão, se o fórum não ficar mofado no final, é claro.

A pior parte é que eu entendo as mudanças no cérebro que ocorrem com a idade e por que as pessoas raciocinam dessa forma e não daquela. Essa obviedade às vezes é hilária, mas não há como fugir dela.

O que isso tem a ver com a Inglaterra?

Você parece ser uma pessoa qualificada, mas é constantemente arrastado para a lata de lixo.

Você raramente discute sobre os méritos....