Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 608

 
Dr. Trader:

soa como o conjunto da NS

se não estou enganado

 
Dr. Trader:

Depois escolhemos os parâmetros do modelo (função de ativação, número de camadas e seus tamanhos, etc.), cada vez que fazemos todas estas etapas (treinar 5 modelos, prever 5 pedaços únicos para cada modelo, combiná-los, R2), conseguindo uma estimativa cada vez melhor.

Isso são centenas de redes para construir e treinar! Mas até agora não vejo nenhuma outra opção(

 
Tenho de ir dormir agora:

Eu acho que se você escrever para ele e lhe oferecer mil libras por hora, você pode obter lições individuais de Perchik, Perepelkin vai custar um pouco mais, mas vale a pena.


Meu, estás a falar a sério sobre o Perchik? Isso é duro.)

A pagar mil dólares a um motorista contratado.

Eu não sei nada sobre o outro... e não quero saber.)

Seja como for, é tudo interessante, mas vou para a cama e acabar os meus livros esta semana.

 
Maxim Dmitrievsky:

parece apenas um conjunto da NS

se não estou enganado.

Você vai acabar com um conjunto normal, sim. Mas o resultado será muito melhor do que "apenas treinar 5 neurónios em toda a folha de cálculo".


Vizard_:

Bem, sim, opção padrão, embora prefira sem qv, já escrevi antes...
Doc, tente fixar o declive com diferentes parâmetros e teste.

Eu tenho o LibreOffice, que a neurónica não funcionava nele.


elibrarius:

Isso são centenas de redes para construir e treinar! Mas até agora nenhuma outra opção está à vista(

É por isso que eu gosto do pacote gbm em R, por exemplo, sua velocidade de aprendizagem é ordens de magnitude mais rápida. Não é neurónica, é um andaime e um reforço.

Também é interessante que a validação cruzada de k-dobra funcionou bem para mim, mesmo com um pequeno número de épocas de treinamento de redes neurais. O número de épocas foi um dos parâmetros de aprendizagem que eu peguei. Pequeno número de épocas = aprendizagem rápida, isso é uma vantagem. Mas a possível precisão do modelo é menor, isso é um menos.

 
Dr. Trader:

Sugiro que aprenda a fazer a validação cruzada. Já vi algumas maneiras diferentes, esta funciona bem...

...


Há também uma nuance de que os pesos iniciais dos neurônios são definidos aleatoriamente, e o resultado final do treinamento pode depender muito dele, inclusive para florestas e outros modelos.
Cada vez antes de treinar o modelo, eu defino o valor do gerador de números aleatórios para o mesmo estado:

set.seed(12345)

Desta forma consigo resultados reprodutíveis e estabilidade. O valor do grão gpsch também pode ser apanhado em vez de 12345, o que, embora pareça bastante engraçado, às vezes é necessário.

 
Dr. Trader:

Outra nuance é que os pesos iniciais dos neurônios são definidos aleatoriamente, e isso pode depender muito do resultado final do treinamento, inclusive para florestas e outros modelos.
Toda vez que antes de treinar um modelo eu defino o valor do gerador de números aleatórios para o mesmo estado:

Desta forma, obtenho repetibilidade e estabilidade. Você também pode ajustar o valor do grão gpsh em vez de 12345, o que soa bastante engraçado, mas às vezes é necessário.



Jogue sua rede no lixo, pois ela reage aos valores gpsh de tal forma. Uma rede normal funciona e aprende em qualquer valor inicial, mesmo a zero.


 
Sergey Chalyshev:

Se você der a esse neurônio um monte de neurônios e camadas e épocas infinitas de treinamento, ele não tem problemas de treinamento com a precisão desejada com qualquer grão inicial.

Eu, por exemplo, estou aprendendo a prever o aumento no preço por barra. O problema é que há muito ruído nos preços (preço real +- alguns turnos aleatórios), e é impossível prever o ruído. Mas podemos usar a validação cruzada para escolher parâmetros onde o modelo ainda não se lembrará do ruído, mas de alguma forma compilará esses dados e fará previsões corretas pelo menos em uma pequena porcentagem dos casos. E com alguns valores iniciais do modelo de pesos começa imediatamente a lembrar o ruído em vez de tentar generalizar esses dados, é ruim, então você deve procurar por outro grão inicial para inicialização de pesos.

 
Sergey Chalyshev:


Jogue sua rede no lixo se ela reage tanto aos valores de gpsh. Uma rede normal funciona e aprende em qualquer valor inicial, mesmo zero.



É apenas mais uma explicação de que não se pode usar métodos estáticos em sistemas dinâmicos.

Esta é apenas mais uma explicação para o fato de que você não deve usar métodos estáticos para sistemas dinâmicos.

 

Bem, vamos agora olhar para a arquitetura para aprender em linhas de tempo, em vez de fotos de SEALs, opção um:

 

Opção 2:

Quer dizer, combinar NS e autômatos parece uma boa solução, com circuitos positivos e negativos, mas quem e como irá implementá-la é outra questão. Para mim pessoalmente, esta abordagem é a mais óbvia