Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1609

 
Maxim Dmitrievsky:

é chamado de empilhamento de modelos. Não vai ser o mesmo, mas não necessariamente mais eficiente. Fê-lo desta maneira, não vi nenhuma melhoria.

Há outra forma, chama-se meta-learning. Você treina o primeiro modelo para prever as classes, depois obtém os resultados e os alimenta no segundo modelo, no mesmo ou em outros pregadores, o que permite/nega a negociação do primeiro modelo. 1 - troca, 0 - não troca, dependendo da qualidade das previsões do primeiro modelo, ou seja, uma espécie de filtro. Reduz fortemente os erros nos dados de treinamento, mas não tanto nos novos dados (se o modelo tiver baixa generalização). Mas a meta-formação em si é boa.

Você pode treinar o primeiro modelo em alguns dados e o meta-modelo em outros dados, em erros do primeiro modelo. Pode haver diferentes variantes. Fi-lo de ambas as maneiras, em geral há uma melhoria, mas é mais um ajuste, do que uma forma de obter um bom modelo que funcionará no feedback.

Você pode pesquisar no Google Marcos Lopez De Prado "meta-learning", apenas sobre negociação

Obrigado pela informação, mas considerei dividir os preditores em partes como uma forma de poupar recursos informáticos durante o treino, só não tenho tempo suficiente para treinar, por exemplo, 10 preditores em modelo de uma só vez...

Eu não quero tornar os preditores menores com PCA ou outra coisa, porque eu preciso escolher preditores importantes primeiro, então estou pensando em como quebrar o modelo geral em modelos PDP com mínima perda de informação

 
mytarmailS:

Obrigado pela informação, mas estava a considerar dividir os preditores em partes como uma forma de poupar recursos informáticos durante o treino, só não posso dar-me ao luxo de treinar por exemplo 10 preditores num modelo ao mesmo tempo...

Eu não quero diminuir o tamanho dos preditores com PCA ou outra coisa, pois preciso selecionar preditores significativos primeiro, então estou pensando em como dividir o modelo geral em modelos PDP com o mínimo de perda de informação

Que 10 preditores? Remover os correlatos, ver a importância dos restantes através da floresta ou do reforço e haverá 3-10

 

Você não pode adivinhar 100% de qualquer forma, foi testado, haverá previsões incorretas em qualquer caso. Isto porque os modelos de treinamento podem ser repetidos, mas o resultado não é necessariamente o mesmo.

Por exemplo, isto é o que parece. É claro que posso não ter uma abordagem muito boa para selecionar modelos (dados formalizados), mas acho difícil acreditar que previsões 100% corretas sejam possíveis.


 
Maxim Dmitrievsky:

Que 10 preditores? Retire os correlatos, olhe a importância dos restantes através da floresta ou do reforço e você fica com 3-10

E se os preditores forem regras lógicas? :)

 
Concordo que o treinamento em história profunda não é muito eficaz, às vezes o sistema começa a brincar na saída.
 
mytarmailS:

E se os prognosticadores forem regras lógicas? :)

Quem se importa, não há muitos preditores, não é um modelo, é um lixo.

talvez em algum lugar no motor de busca ou análise de imagem talvez, mas não para citações com certeza

 
Farkhat Guzairov:

De que forma você alimenta os níveis da rede neural?

 
Maxim Dmitrievsky:

Quem se importa, não há assim tantos preditores, não é um modelo, é um lixo

Porquê?

Quanto mais "rico" o modelo, pior é?

Especialmente se você mesmo não sabe qual é a melhor combinação de preditores, não seria correto alimentar o modelo com todas as opções possíveis e depois olhar para a importância dos preditores em termos do modelo
 
mytarmailS:

De que forma você alimenta os níveis da rede neural?

Não não não, tentei usar um de dois níveis, mas não obtive o resultado esperado, como escrevi acima, talvez não a seleção ótima dos dados (em alguns casos contraditórios) não permitiu ver nenhuma dica de um resultado logicamente correto. Até agora, apenas a neurónica em camadas habitual. Antes de construir uma rede multicamadas, você precisa saber se cada camada produzirá a solução certa, isoladamente.

 
Farkhat Guzairov:

Não não não, eu tentei usar bi-level, mas não obtive o resultado esperado, como escrevi acima, talvez não a seleção ótima dos dados (em alguns casos contraditórios) não permitiu ver nenhuma dica de resultado logicamente correto. Até agora, apenas a neurónica em camadas habitual. Antes de construir redes multicamadas, você deve entender se cada camada lhe dá a solução certa por direito próprio.

Desculpe, eu queria dizer níveis de apoio e resistência.