Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 2809

 
Valeriy Yastremskiy #:

A biblioteca não leva em conta o tipo? O tipo de dados é como os dados para os cálculos mais baratos. A mesma matriz deve ser projetada para cálculos.

Não encontrei um análogo do numpy para o R, e as matrizes não são tão rápidas e o próprio R consome muita memória devido ao seu paradigma.

É claro que uma biblioteca de terceiros pode ser lenta, quem a verificaria?

Não sei com o que comparar, portanto, não quero carregar um conjunto de dados de gigabytes para comparar a velocidade
 
Алексей Тарабанов #:

De jeito nenhum.

E treinar com reforços?
 
mytarmailS #:
E o aprendizado por reforço?

O topkstarter escreveu um artigo sobre DQN no hubr em R.

Deve-se entender que o aprendizado por reforço é apenas uma otimização complicada.

Ele pode funcionar em alguns casos, mas pode não funcionar.

 
Maxim Dmitrievsky #:

Não consigo encontrar um análogo numpy para o R..

..
Se a velocidade for necessária, então a tabela de dados, se for um análogo rápido de dataframes, então o tibble, se houver uma grande quantidade de dados, então uma matriz grande.

 
mytarmailS #:
..
Se for velocidade, então a tabela de dados; se for um análogo rápido aos dataframes, então o tibble; se for uma grande quantidade de dados, então a big matrix.

Eu queria aliviar o sofrimento de Alexey. É certamente mais fácil desde o início... mas ainda assim.

 
Maxim Dmitrievsky #:

O topikstarter escreveu um artigo sobre o DQN no hub do R

Deve-se entender que o aprendizado por reforço é apenas uma otimização projetada de forma inteligente

Pode funcionar em alguns casos, pode não funcionar.

Bem, no contexto da pergunta sobre a memória...
Na RL, você pode atualizar a matriz de ação e a matriz de avaliação de estado ou ação para sempre, é como uma memória com atualização constante. Mas não sei se estou certo.
 
mytarmailS #:
Bem, no contexto da pergunta sobre a memória.
Na RL, você pode atualizar eternamente a matriz de ação e a matriz de avaliação de estados ou de ações, que é como uma memória com atualização constante.... Mas não sei se estou certo.

Ele pode ajustar os estados aos novos dados, mas é tudo no nível ou como o Mashka, ou seja, com um atraso.

É mais importante escolher um prêmio, um alvo, basicamente. E ele lançará as negociações em diferentes direções e, a cada iteração, ficará cada vez melhor.

 
Maxim Dmitrievsky #:

Eu queria aliviar o sofrimento de Alexey. ) É certamente mais fácil desde o início... mas ainda assim

Se Alexey quisesse pensar e ouvir, levaria 2 minutos com meu script....
 
Maxim Dmitrievsky #:

ele pode ajustar os estados a novos dados, mas tudo é nivelado ou do tipo Mashka, ou seja, defasado

É mais importante selecionar a recompensa, ou seja, o alvo, em essência. E os negócios serão lançados em diferentes direções por si mesmos e, a cada iteração, ficarão cada vez melhores

A memória é um NS com pesos treinados, você o treina a cada etapa, move os pesos um pouco... não muito, por isso há um atraso.

e você não pode realmente transferir isso para o terminal.

 
Maxim Dmitrievsky #:

A memória é um NS com pesos treinados, você o treina novamente a cada etapa, move os pesos um pouco... não muito, então o atraso .

.
Uma rede treinada ou qualquer AMO treinada ou mesmo o Mashka é memória. Sim, você pode aceitar essa analogia....

Mas quando você "retreina" uma rede neural treinada, você muda os pesos, esquece o passado em favor do presente....

Não é retreinamento, é retreinamento a cada passo, como Mashka na janela deslizante, ela não se lembra do que está fora da janela deslizante, embora estivesse lá....