Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 897

 
Aleksey Vyazmikin:

avaliação de oob (fora do saco)

 
Maxim Dmitrievsky:

oob (fora do saco) estimativa

Eu li sobre este método aquihttps://habr.com/company/ods/blog/324402/ mas não consegui ver como a estimativa pode afetar a busca por um padrão nos dados que estão sendo alterados. Talvez eu não esteja a falar correctamente, mas aqui está um exemplo simples numa amostra que temos, digamos, um padrão como este.

"

1+2=3

...

1+2=3,5

...

1+2=3,8

...

1+2=3,5

...

1+2=3

"

"..." - não é um período de tempo definido após o qual uma regra muda. Mesmo que idealmente haja um padrão de mudança de regras. Como podem encontrar esta regularidade dizendo que uma regra será alterada em n linhas de amostra e depois as regras n*x voltarão ao seu estado original? E se a natureza da alteração da regra não for apenas um intervalo de tempo, mas a influência de outras circunstâncias cujos dados estão na amostra, mas a regularidade da sua influência só pode ser estimada pela sequência de eventos (ou seja, pela ordem em que cada linha com os dados é submetida)? As florestas estão puxando pedaços por diferentes métodos, como elas podem ver não só a regularidade horizontal (conjunto de preditores), mas também vertical (mudança de preditores em relação ao passado n)?

 
Aleksey Vyazmikin:

Responderei mais tarde à noite... um súbito desejo por pizza e loirinha.

 
Maxim Dmitrievsky:

Eu respondo mais tarde esta noite... De repente sinto-me como uma pizza e uma loira.

Primavera - pode explicar a brusquidão :)

Vou esperar por uma resposta, obrigado por teres tido tempo para fazer as minhas perguntas provavelmente estúpidas.

 
Aleksey Vyazmikin:

Primavera - pode explicar a brusquidão :)

Estou ansioso por ter notícias suas, obrigado por ter tido tempo para fazer as minhas perguntas provavelmente bobas.

Pelo contrário, boas perguntas lógicas, eu mesmo as fiz recentemente.

 
Aleksey Vyazmikin:

"..." - não é um período de tempo definido após o qual uma regra muda. Mesmo que idealmente haja um padrão de mudança de regras. Como pode um andaime encontrar esta regularidade dizendo que uma regra será alterada em n linhas de amostra e depois em n*x linhas a regra voltará ao seu estado inicial? E se a natureza da alteração da regra não for apenas um intervalo de tempo, mas a influência de outras circunstâncias cujos dados estão na amostra, mas a regularidade da sua influência só pode ser estimada pela sequência de eventos (ou seja, pela sequência de arquivamento de cada linha com os dados)? As florestas puxam pedaços usando métodos diferentes, como podem ver não só o padrão horizontal (conjunto de preditores), mas também o vertical (mudança nos preditores em relação ao passado n)?

Bem, não é exactamente uma mudança no padrão. Mais como uma aproximação mais grosseira. Se a amostra for suficientemente grande, por exemplo, o andaime é treinado em subconjuntos aleatórios, retira-se pedaços dele, sim, e em oob (os pedaços restantes) o modelo é validado, e os erros são comparados. Se os erros forem +- os mesmos, então o andaime não está excessivamente treinado, então há uma maior probabilidade de previsões correctas no futuro. Se o erro no oob não for satisfatório, podemos jogar um pouco com as configurações, por exemplo, reduzir o subconjunto de treinamento (adicionar mais ruído ao modelo) e aumentar o subconjunto de validação. Ao fazer isso, o modelo já vai se aproximar das amostras de treinamento pior, o erro será maior, mas em novos dados há uma chance de obter exatamente o mesmo erro, ou seja, o modelo será estável em ambas as subamostras. E como as próprias subamostras são escolhidas ao acaso, um grande número de incógnitas na subamostra de treinamento é coberto. Obviamente, isto não é uma panaceia, mas dá mais flexibilidade para trabalhar em contraste com apenas as árvores. O mesmo para os conjuntos NS.

 
Maxim Dmitrievsky:

Bem, não é exactamente uma mudança no padrão. Mais como uma aproximação mais grosseira. Se a amostra for suficientemente grande, por exemplo, então o andaime é treinado em subconjuntos aleatórios, puxando pedaços para fora dele, sim, e em oob (os pedaços restantes) o modelo é validado, e os erros são comparados. Se os erros forem +- os mesmos, então o andaime não está excessivamente treinado, então há uma maior probabilidade de previsões correctas no futuro. Se o erro no oob não for satisfatório, podemos jogar um pouco com as configurações, por exemplo, reduzir o subconjunto de treinamento (adicionar mais ruído ao modelo) e aumentar o subconjunto de validação. Ao fazer isso, o modelo já vai se aproximar das amostras de treinamento pior, o erro será maior, mas em novos dados há uma chance de obter exatamente o mesmo erro, ou seja, o modelo será estável em ambas as subamostras. E como as próprias subamostras são escolhidas ao acaso, um grande número de incógnitas na subamostra de treinamento é coberto. Obviamente, não é uma panaceia, mas dá mais flexibilidade para trabalhar em contraste com as árvores simples. O mesmo com os conjuntos NS.

Bem, mais ou menos assim eu pensei, se primitivamente, ele simplesmente verifica regras, em amostra de cada árvore condicionalmente independente, e por causa do erro de cruzamento é comprado, supertreinamento, mas da mesma forma corta todas as regularidades temporais, cuja causalidade não pôde ser estabelecida (e só foi possível estabelecer essa causalidade por acaso, se a árvore verificasse seu resultado com essa amostra, onde a regularidade era preservada).

E se cortarmos a amostra e treinarmos em pedaços menores (digamos cortar um ano em 12 meses e levar 2-3 anos), e depois, no caso da árvore, recolher todas as regras de cada árvore com maior peso e combiná-las com 24 amostras (se uma regra funcionar por menos de x% da amostra, atirá-la fora), não podemos ver que regras diferentes funcionarão por períodos diferentes? Então podemos fazer o pressuposto de ciclicalidade, que deve ser o caso nos mercados financeiros, devido ao timing (relatórios financeiros).

Por exemplo, muitas pessoas escrevem sobre a análise de correlação como um método preliminar para estimar preditores, mas quando olho para a tabela não consigo entender, a correlação é pequena, mas a árvore dá mais valor a este elemento depois que ele é construído. Porque é que isto acontece?


Se pegarmos num preditor chamado "arr_TimeH" e pensarmos nisso, é óbvio que podemos esperar um comportamento diferente do mercado em momentos diferentes, por exemplo às 10 horas da manhã na abertura da bolsa haverá um forte movimento, pois a informação (eventos acumulados) a partir do momento de ausência de negociação é processada, e em outros momentos a situação pode ser diferente, as mesmas notícias planejadas podem ser divulgadas, após o que um forte movimento do mercado é muito provável, por outro lado há uma sessão noturna, onde o movimento muitas vezes muda em relação ao dia anterior, pode ser menos amplo, portanto o tempo obviamente influenciado. É por isso que eu acho que os métodos de MO devem ser usados para negociação em vez de confiar nas tradições já estabelecidas, incluindo o pré-processamento de dados.


P. S. Desenhei as tabelas no Photoshop, verifiquei-as à vontade, a fim de mostrar cores, e fiquei chocado quando vi que as cores das caixas de seleção coincidiam com as cores das escalas de significância - suba ao tom! Como é que isso pode ser? Acontece que prestei atenção a isso inconscientemente e isso afectou a minha escolha. Talvez as pessoas troquem intuitivamente da mesma forma, ou seja, usam um sistema que não percebem.

 
Aleksey Vyazmikin:

Por exemplo, muitas pessoas escrevem sobre a análise de correlação como um método preliminar de avaliação de preditores, mas quando olho para a tabela não consigo entender que a correlação é pequena, mas a árvore dá mais significado a este elemento depois de construída. Porque é que isto acontece?

Talvez de acordo com a combinação dos seus preditores de tempo (mês, semana, dia, hora...) a árvore vá simplesmente para um determinado bar BUY/SELL.

É como memorizar o Tempo das grandes barras e usá-las para comercializar lucrativamente na história, embora a correlação deste atributo com o movimento dos preços seja quase zero.

 
Ivan Negreshniy:

Talvez pela combinação dos seus preditores de tempo (mês, semana, dia, hora...) a árvore apenas vai a um determinado bar BUY/SELL.

É como memorizar as barras de tempo e usá-las para negociar na história, embora a correlação deste atributo com o movimento dos preços seja quase zero.

Talvez sim, mas existem apenas dois preditores - dia da semana e hora, ou seja, podemos obter 5*14=70 grupos com tal atributo, enquanto a amostra contém 403933 linhas, ou seja, 5770 linhas enquadram-se neste grupo, por outro lado, as 33000 linhas-alvo, ou seja, 471 linhas-alvo enquadram-se em cada grupo. E se também tivermos em conta que existem outros preditores, já teremos muitos grupos. É como cortar uma maçã em fatias, marcar as fatias e colocar em uma mesa aquelas fatias com mais de um traço do que as outras, mas como há tantas fatias, haverá fatias com apenas um traço. Então surge a questão, quantos preditores devem existir para um determinado tamanho de amostra? Quão grandes devem ser as fatias de maçã?

Bem, há um padrão em si mesmo nos dias e horas, e é influenciado por fatores cronométricos - abertura da sessão de negociação, período de sessões de negociação, notícias (econômicas/estatísticas, que em sua maioria são divulgadas na mesma hora e dia da semana).

 
Aleksey Vyazmikin:

Talvez sim, mas existem apenas dois preditores - dia da semana e hora, assim podemos obter 5*14=70 grupos por este critério, e a amostra tem 403933 linhas, assim o grupo obtém 5770 linhas, por outro lado o alvo 33000, assim obtemos 471 linhas alvo para cada grupo. E se também tivermos em conta que existem outros preditores, já teremos muitos grupos. É como cortar uma maçã em fatias, marcar as fatias e gravar aquelas com mais de um traço do que as outras, mas como há tantas fatias, haverá fatias com apenas um traço. Então surge a questão, quantos preditores devem existir para um determinado tamanho de amostra? Quão grandes devem ser as fatias de maçã?

Mas existe um padrão em si, e é influenciado por factores cronométricos - abertura de uma sessão de negociação, período de sessões de negociação, notícias (económicas/estatísticas, que na sua maioria são divulgadas à mesma hora e dia da semana).

Maxim Dmitrievsky, como é que se resolve este problema?

Em geral, quais são as opções? Pedaços da maçã podem ser diferentes.
Para cada ns do conjunto adicionar algum contexto e usar esses contextos em alguns ns de controle?
Por contexto quero dizer, por exemplo, uma ligação a alguma definição básica, conceito, preditor e mais alguns dados...