Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2019

 
Aleksey Vyazmikin:

Você também pode levar uma mensagem pessoalmente.

Bem, aí está, paradoxo situacional, não consigo entrar na caixa do correio) o site está com falhas. Se funcionar, eu escrevo para ti e para o Maxim.

 
Maxim Dmitrievsky:

não é complicado, só tens de descobrir.

Você não precisa de energia nenhuma. Eu posso aprender LSTM no meu laptop em poucos minutos sem placas de vídeo. Sobre o poder é um mito.

), bem... declaração discutível.

... Обучение закончено...
 ============ Обучение заняло(миллисекунд): 26832. Эпох: 2693 ===========
 eta: 0.0100, alpha: 0.0050
 max_long_result: 0.9986, max_short_result: 0.9996
 min_long_result: 0.9979, min_short_result: 0.9950
A mesma operação em MQL leva 10 minutos ou mais. A velocidade poderia ser aumentada se o host tivesse mais núcleos no processador ou nos próprios processadores )))).
 
Farkhat Guzairov:

), bem... afirmação controversa.

A mesma operação com MQL leva 10 minutos ou mais. A velocidade poderia ser aumentada se o host tivesse mais núcleos na CPU ou nos próprios processadores)))).

2700 épocas em 30 segundos é muito rápido

 
dr.mr.mom:

Bem, aí está, paradoxo situacional, não consigo entrar nas caixas de correio) o site está com falhas. Escrever-te-ei a ti e ao Maksim quando estiver tudo esclarecido.

Eu escrevi-te, a mensagem foi transmitida?

 
Maxim Dmitrievsky:

2700 épocas em 30 segundos é muito rápido.

Os dados não são suficientes, o array é como 400 de profundidade, mas se você carregá-lo na história profunda, mesmo C++ com threads será muito lento )))), mas o mais triste é que no final você não pode obter um sistema bem treinado, eu tenho um limiar de 30000 época, ele pára de treinar, mas você sabe que não é a merda treinada, por que assim ... Acho que é por causa de colisões, ou seja, parece-me que existe um conjunto de dados que num caso diz que o modelo é curto e no outro caso este mesmo modelo aparece como um modelo longo, se é assim, a culpa é minha, mas não tenho tempo para lidar com ele ((. Por causa disso, eu simplesmente reduzi o conjunto de dados de entrada para treinamento.

 
Maxim Dmitrievsky:

Meu... não é complicado no sentido em que se pode entender

Normalmente um par de camadas são suficientes, você não precisa de muita profundidade em forex.

É que arquitectonicamente existem redes mais avançadas para vr, mais frescas do que a lstm. Pode ser lucrativo a partir daí, ainda não verifiquei. Todos os "clássicos", como os impulsos e a perseverança, não são nada adequados para a RV.

Se mais camadas são necessárias ou não só podem ser julgadas pelos resultados alcançados, acho...

Que outras redes existem lá fora, pode nomeá-las - não sou muito bom em variedades de redes.

Posso deixar-te uma amostra para uma rede da moda?

 
Farkhat Guzairov:

Os dados são pequenos, a matriz é como 400 de profundidade, mas se eu carregar na história profunda, mesmo C++ com threads vai entrar em um tizzy )))), mas o mais triste é que no final eu não posso obter um sistema bem treinado, eu tenho 30000 marco de época, ele pára de treinar, mas você entende que não é a merda treinada, por que é assim ... Eu acho que é por causa de colisões, ou seja, como me parece haver um conjunto de dados que num caso diz que o modelo é curto e no outro caso este mesmo modelo aparece como longo, se é assim é culpa minha, mas eu não tenho energia suficiente para lidar com ele ((. Por causa disso, eu simplesmente reduzi o conjunto de dados de entrada para treinamento.

Porque um número tão grande de épocas... geralmente 1000 ou mesmo 100 é suficiente para uma taxa dinâmica de looping.

 
Aleksey Vyazmikin:

Se são ou não necessárias mais camadas só pode ser julgado pelos resultados alcançados, acho eu...

Que outras redes existem por aí, você pode nomeá-las - eu não sou muito bom em variação de rede.

Posso deixar-lhe uma amostra para correr numa espécie de rede chique?

Estou só a aprender sobre redes neurais. Eu já escrevi aqui. São novos transformadores e convolucionais, etc., utilizados principalmente para processamento de linguagem e som.

Os conjuntos de dados para eles são preparados de uma forma especial, os conjuntos de dados normais não funcionarão
 
Maxim Dmitrievsky:

Estou só a aprender sobre redes neurais. Eu já escrevi aqui. Estas são as novas convoluções e transformadores e assim por diante, utilizadas principalmente para o processamento de linguagem e som.

Eles têm conjuntos de dados especiais, os normais não funcionam...

Se você sabe como se preparar, você pode fazê-lo...

 
Maxim Dmitrievsky:

porquê um número tão grande de épocas... geralmente até 1000 ou mesmo 100, com uma taxa de perspicácia dinâmica

O objetivo é obter a máxima precisão para o treinamento, ou seja, precisão para 1. Como os pesos primários são definidos aleatoriamente, às vezes as épocas podem ser inferiores a 1000.