Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1966

 
Maxim Dmitrievsky:

Muda para python, eu dou-te exemplos e podes usá-los.

Não vejo a utilidade de discuti-lo no fórum, porque o RL não é um tópico de nível iniciante.

Assim que eu terminar o livro, vou perguntar a )))). Quando olho para o livro, não sei o que fazer e o que esperar. Se você não souber a hora, pode ser uma estratégia diferente.

 
Maxim Dmitrievsky:

Muda para python, eu dou-te exemplos e podes usá-los.

Não vejo a utilidade de discutir isso no fórum, pois RL não é um tópico de nível de entrada.


Podes enviar-me um e-mail?

eugen420@gmail.com

 
Evgeni Gavrilovi:


Podes enviar-me isso por e-mail?

Só para ele, o resto por uma taxa.

 
Maxim Dmitrievsky:

Muda para python, eu dou-te exemplos e podes usá-los.

Não vejo a vantagem de discutir isso no fórum, já que RL está longe de ser um tópico de nível básico.

Vou tentar.

 
mytarmailS:

Vou tentar.

Confira os vídeos de introdução no youtube. É o mesmo que R, apenas com as suas próprias características especiais. Não deve haver qualquer problema com a transição. Mas você pode pegar o kotier do mt5 e abrir negócios.
 
Maxim Dmitrievsky:
Veja os vídeos introdutórios no YouTube.

Sim, é o que eu faço))

 
mytarmailS:

Sim, eu sei))

A compreensão viria mais rapidamente se o manual fosse escrito sem erros:

A camada de cluster é uma rede neural de quantificação vetorial de Kohonen (LVQ). A camada de cluster agrupa os resultados dos dendritos de acordo com o algoritmo LVQ padrão. Recorde que a LQV implementa a aprendizagem on-line sem professores .

Primeiro, as letras nas siglas são misturadas (corretamente LVQ), segundo, é um método de ensino COM UM TUTOR

Enquanto o método sem professor é chamado de VQ (quantizatinon vetorial), então é muito provavelmente um neurônio, não LVQ.


É importante notar que a sub-rede LQV manteve a memória dos sinais de entrada anteriores como a memória das últimas saídas dos neurónios LQV. Portanto, havia mais informações disponíveis para a rede neural do que as que foram diretamente alimentadas por ela.

Eu ainda não entendo isto. O que mais provavelmente se pretende dizer são estas ligações das saídas da sub-rede que regressam aos neurónios. Eles estão apenas armazenando informações sobre ações passadas.

Ou seja, a memória armazena a sub-rede LQV.


 
Maxim Dmitrievsky:

A compreensão viria mais rapidamente se o manual fosse escrito sem erros:

A camada de cluster é uma rede neural de quantificação vetorial de Kohonen (LVQ). A camada de cluster agrupa os resultados dos dendritos de acordo com o algoritmo LVQ padrão. Recorde que a LQV implementa a aprendizagem on-line sem professores .

Primeiro, as letras nas siglas são misturadas (corretamente LVQ), segundo, é um método de ensino COM UM TUTOR

e o método sem um professor é chamado VQ (quantizatinon vetorial), então o mais provável é que seja no neurônio, não no LVQ.

Não sei... Já o li 4 vezes e ainda não percebi, talvez o professor seja um reforço lá?

+ também há votações a partir de camadas.

Maxim Dmitrievsky:

É importante notar que a subrede LQV manteve uma memória das entradas anteriores como memória das últimas saídas dos neurónios LQV. Portanto, havia mais informações disponíveis para a rede neural do que as que foram diretamente alimentadas por ela.

Eu ainda não entendo isto. O que mais provavelmente se pretende dizer são estas ligações das saídas da sub-rede que regressam aos neurónios. Eles estão apenas armazenando informações sobre ações passadas.

Ou seja, a memória armazena a sub-rede LQV.

Bem, sim, a memória na LQV está na forma das últimas saídas dos neurónios LQV, mas é, como eu entendo, a memória está um passo atrás...

E esta fantástica analogia com a chaleira e o café? É o grão inteiro.


Ele não te disse nada?

Onde será que ensinam estas coisas? É como cibernética, robótica, e...

Os DataSynthians são apenas educadores físicos no instituto tecnológico).


==============================================================

há também o LVQ dinâmico - - dlvq

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

Detalhes

dlvq : Os dados de entrada devem ser normalizados para utilizar o DLVQ.

Aprendizagem DLVQ: um vector médio (protótipo) é calculado para cada classe e armazenado num módulo oculto (recentemente criado). A rede é então utilizada para classificar cada padrão usando o protótipo mais próximo. Se um padrão for mal classificado como classe y em vez da classe x, o protótipo classe y é afastado do padrão e o protótipo classe x é movido em direcção ao padrão.Este procedimento é repetido iterativamente até que não haja mais mudanças na classificação. Em seguida, novos protótipos são introduzidos na rede para cada classe como novas unidades ocultas e inicializados pelo vetor médio de modelos mal classificados nessa classe.

Arquitetura de rede: a rede tem apenas uma camada oculta contendo uma unidade para cada protótipo. Os protótipos/unidades ocultas também são chamados de vetores de livro de código. Como o SNNS gera unidades automaticamente e não requer uma especificação prévia do número de unidades, o procedimento no SNNS é chamado LVQ dinâmico .

As funções de inicialização, aprendizagem e actualização por defeito são as únicas adequadas para este tipo de rede. Os três parâmetros da função de aprendizagem definem duas taxas de aprendizagem (para casos classificados correcta / incorrectamente) e o número de ciclos para os quais a rede é treinada antes de calcular os vectores médios.

Referências

Kohonen, T. (1988), Auto-organização e memória associativa, Vol. 8, Springer-Verlag.



=========================================================


Meu, eu li este LVQ, é igual ao Kohonen (SOM) mas com um professor.

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm,those%20instances%20should%20look%20like.

 

Quem resolveu a questão da quantificação de uma faixa numérica com referência ao alvo? No meu caso é uma "quantização" não uniforme - um processo de auto-ajuste ao alvo com um limite de dígitos mínimos no intervalo ou a própria janela em expressão numérica - ainda não decidido.

Experiências com CatBoost mostram que a quantização fortemente (em alguns casos até 15% acurasi) afeta o resultado.

 
Aleksey Vyazmikin:

Quem resolveu a questão da quantificação de uma faixa numérica com referência ao alvo? No meu caso é uma "quantização" não uniforme - um processo de auto-ajuste ao alvo com um limite de dígitos mínimos no intervalo ou a própria janela em expressão numérica - ainda não decidido.

Experimentos com CatBoost mostram que a quantização fortemente (até 15% acurasi em alguns casos) afeta o resultado.

https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html

pacote para discretização (quantização) em relação ao alvo