Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 363

 
Maxim Dmitrievsky:

Porquê pensar tão estreitamente, todos aqui escrevem como se nunca tivessem visto nada mais doce do que uma cenoura)) Fodam-se os preditores, ensinem o neurônio a encontrar esses mesmos preditores, ensinem o neurônio a ensinar o neurônio, experimentem :) Naturalmente, é muito estúpido apenas pegar indicadores, alimentá-los com a entrada e saída em ziguezague, não sei porque todos estão discutindo isso :)

Quem me dera poder, mas...

Por exemplo, as redes neurais convolucionais possuem parcialmente essa "habilidade", podem aprender o pré-processamento (filtragem) por si próprias, mas são muito especializadas, como os descendentes do Neo-Cognitron Focus, concebidos como um "analógico" de olho retina, treinados por backprops, a CNN na verdade para fotos também não é uma coisa trivial? Infelizmente, do ponto de vista da engenharia, desenvolver um sistema milagroso para que eles mesmos façam tudo é uma utopia ingênua, é muito mais fácil fazer soluções especiais para uma determinada tarefa, que de qualquer forma pode levar anos de trabalho em equipe, enquanto a SRS está mais próxima de algo filosófico e humanitário.

 
Aliosha:

Quem me dera poder, mas...

Por exemplo, as redes neurais convolucionais possuem parcialmente essa "habilidade", podem aprender o pré-processamento (filtragem) por si próprias, mas são muito especializadas, como os descendentes do Neo-Cognitron Focus, concebidos como um "analógico" de olho retina, treinados por backprops, a CNN na verdade para fotos também não é uma coisa trivial? Há muitos números mágicos e arquiteturas xamânicas na configuração, um passo para a esquerda, um passo para a direita e tudo se quebra, ou seja, é um ajuste muito fino da tarefa, mas não uma solução universal para tudo e para tudo. Infelizmente, do ponto de vista da engenharia, para desenvolver um sistema milagroso que faria tudo sozinho - utopia ingênua, é muito mais fácil fazer soluções individuais, o que de qualquer forma pode levar anos de trabalho em equipe, e o FTI está mais próximo de algo filosófico, humanitário.


Mas acredito que é possível fazer uma boa ferramenta de auto-optimização, que não funcionará sempre perfeitamente, mas de vez em quando funcionará.

Mas obviamente não funcionará com indicadores padrão e uma saída em ziguezague :) Parece-me até uma brincadeira de crianças, apenas como um exemplo, se ao menos.

 
Maxim Dmitrievsky:

não é que não estejam correlacionados, eles se contradizem à medida que a amostra aumenta, sim, como resultado ou a saída é sempre 0 ou 1, ou 0,5... além disso para 1 neurônio. Então, se >0,5 vender e <0,5 comprar. Você define preditores corretos (na sua opinião) e respostas corretas, ou seja, se psi é sobre-vendido e o mercado cresce nas próximas n-bars, então produza 0, e se psi é sobre-comprado e o mercado desce, então produza 0. Mas haverá muitos casos em que será ao contrário e se embotar, misturar os sinais e entrar em transe. Como resultado, a produção será sempre em torno de 0,5 com desvios muito pequenos num sentido ou noutro... e acontecerá com todos os osciladores, porque eles não são preditores, eles apenas derivam do preço :)
Você deve comprar se > 0.8, e vender se <0.2. Dessa forma eliminará o ruído que se encontra no meio do alcance, ou seja, cerca de 0,5
 
elibrarius:
Você tem que comprar se >0,8, se<0,2 vender. Dessa forma, elimina-se o ruído que se encontra no meio do alcance, ou seja, cerca de 0,5

você não entende )
 
uma rede neural é inteligência artificial e qualquer sistema de pensamento não vai funcionar por nada.... não é estúpido...você oferece dinheiro antes de treinar ou promete uma porcentagem dos lucros, então ele vai começar a encontrar padrões reais e trazer renda...
 
Uma pergunta para aqueles que estão no tópico NS há muito tempo.
Redes Neuronais em ALGLIB e R - os pesos variam de -1 a 1?
 
elibrarius:

É complicado... Levaria mais tempo do que compreender o algoritmo (como para a correlação K acima) e escrevê-lo. Penso que a função de tentar todas as entradas, calcular a correlação e peneirar as altamente correlacionadas levará um par de horas.

Esperemos que com outras soluções para peneirar os preditores seja tão fácil)

Então, há outras soluções para encontrar preditores desnecessários?

Dê uma olhada aqui.

Ao estimar a importância dos preditores é importante lembrar que se trata de um valor complexo, não determinado apenas por critérios de informação. No artigo eu dei um exemplo de seleção de preditores usando o RandomUniformForest para mostrar a importância dos preditores em diferentes aspectos. Na minha opinião, é o pacote com mais sucesso para este fim.

Especificamente para redes neurais, a importância dos preditores pode ser determinada pelo seu peso na primeira camada. Esta abordagem é usada no H2O. Se eu encontrar tempo, vou dar-lhe um exemplo.

Além da importância dos preditores, devemos também definir exemplos de ruído (cordas). E ou os coloca numa aula separada ou os retira do conjunto de treino. Ver NoiseFilterR

Boa sorte.

 
elibrarius:
Uma pergunta para aqueles que estão no tópico NS há muito tempo.
Redes Neuronais em ALGLIB e R - os pesos variam de -1 a 1?
Está a falar da inicialização inicial dos pesos ou?
 

Vladimir Perervenko:
No meu artigo dei um exemplo de seleção de preditores usando o RandomUniformForest para mostrar a importância dos preditores em diferentes aspectos.

Seria interessante conhecer o algoritmo para calcular a importância nesta função para fazer um análogo em MQL.

Vladimir Perervenko:

Especificamente para redes neurais, a importância dos preditores pode ser determinada pelo seu peso na primeira camada. Esta abordagem é usada no H2O. Se eu encontrar tempo, vou dar-lhe um exemplo.

Também já pensei nisso, não é difícil de implementar.

Vladimir Perervenko:

Além da importância dos preditores, devemos também definir amostras de ruído (cordas). Você deve criar uma classe separada para eles ou retirá-los do conjunto de treinamento. Ver NoiseFilterR

Esta é nova para mim, obrigado pela idéia, eu deveria pensar sobre isso).


Vladimir Perervenko:
Está a referir-se à inicialização inicial das escalas ou?
Refiro-me à gama completa, na qual eles são emparelhados - de -1 a 1.
A inicial é escolhida aleatoriamente, suponho (opcionalmente no meio do intervalo).
 
elibrarius:

Seria interessante conhecer o algoritmo de cálculo da importância nesta função para fazer um análogo em MQL.

Eu também pensei nisso, não é difícil de implementar.

Isto é novidade para mim, obrigado pela ideia, vou ter de pensar nisso).


Quero dizer qual é o intervalo completo em que eles são combinados - de -1 a 1.
Assumo que o ponto de partida é escolhido aleatoriamente (em alternativa, no meio do intervalo).

As redes neurais são muito sensíveis à inicialização de pesos. Esta não é uma questão trivial de todo. Existem várias formas de inicialização, uma das quais - o pré-treinamento (usado em redes neurais profundas) é a mais promissora (IMHO).

Durante o treinamento os pesos dos neurônios podem assumir valores em uma ampla faixa de -inf a +inf. A regularização e outras técnicas de estabilização são utilizadas para evitar estes enviesamentos, limitando a gama de pesos.

Boa sorte.