Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1966
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Muda para python, eu dou-te exemplos e podes usá-los.
Não vejo a utilidade de discuti-lo no fórum, porque o RL não é um tópico de nível iniciante.
Assim que eu terminar o livro, vou perguntar a )))). Quando olho para o livro, não sei o que fazer e o que esperar. Se você não souber a hora, pode ser uma estratégia diferente.
Muda para python, eu dou-te exemplos e podes usá-los.
Não vejo a utilidade de discutir isso no fórum, pois RL não é um tópico de nível de entrada.
Podes enviar-me um e-mail?
eugen420@gmail.com
Podes enviar-me isso por e-mail?
Só para ele, o resto por uma taxa.
Muda para python, eu dou-te exemplos e podes usá-los.
Não vejo a vantagem de discutir isso no fórum, já que RL está longe de ser um tópico de nível básico.
Vou tentar.
Vou tentar.
Veja os vídeos introdutórios no YouTube.
Sim, é o que eu faço))
Sim, eu sei))
A compreensão viria mais rapidamente se o manual fosse escrito sem erros:
A camada de cluster é uma rede neural de quantificação vetorial de Kohonen (LVQ). A camada de cluster agrupa os resultados dos dendritos de acordo com o algoritmo LVQ padrão. Recorde que a LQV implementa a aprendizagem on-line sem professores .
Primeiro, as letras nas siglas são misturadas (corretamente LVQ), segundo, é um método de ensino COM UM TUTOR
Enquanto o método sem professor é chamado de VQ (quantizatinon vetorial), então é muito provavelmente um neurônio, não LVQ.
É importante notar que a sub-rede LQV manteve a memória dos sinais de entrada anteriores como a memória das últimas saídas dos neurónios LQV. Portanto, havia mais informações disponíveis para a rede neural do que as que foram diretamente alimentadas por ela.
Eu ainda não entendo isto. O que mais provavelmente se pretende dizer são estas ligações das saídas da sub-rede que regressam aos neurónios. Eles estão apenas armazenando informações sobre ações passadas.
Ou seja, a memória armazena a sub-rede LQV.
A compreensão viria mais rapidamente se o manual fosse escrito sem erros:
A camada de cluster é uma rede neural de quantificação vetorial de Kohonen (LVQ). A camada de cluster agrupa os resultados dos dendritos de acordo com o algoritmo LVQ padrão. Recorde que a LQV implementa a aprendizagem on-line sem professores .
Primeiro, as letras nas siglas são misturadas (corretamente LVQ), segundo, é um método de ensino COM UM TUTOR
e o método sem um professor é chamado VQ (quantizatinon vetorial), então o mais provável é que seja no neurônio, não no LVQ.
Não sei... Já o li 4 vezes e ainda não percebi, talvez o professor seja um reforço lá?
+ também há votações a partir de camadas.
É importante notar que a subrede LQV manteve uma memória das entradas anteriores como memória das últimas saídas dos neurónios LQV. Portanto, havia mais informações disponíveis para a rede neural do que as que foram diretamente alimentadas por ela.
Eu ainda não entendo isto. O que mais provavelmente se pretende dizer são estas ligações das saídas da sub-rede que regressam aos neurónios. Eles estão apenas armazenando informações sobre ações passadas.
Ou seja, a memória armazena a sub-rede LQV.
Bem, sim, a memória na LQV está na forma das últimas saídas dos neurónios LQV, mas é, como eu entendo, a memória está um passo atrás...
E esta fantástica analogia com a chaleira e o café? É o grão inteiro.
Ele não te disse nada?
Onde será que ensinam estas coisas? É como cibernética, robótica, e...
Os DataSynthians são apenas educadores físicos no instituto tecnológico).
==============================================================
há também o LVQ dinâmico - - dlvq
https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq
Detalhes
dlvq : Os dados de entrada devem ser normalizados para utilizar o DLVQ.
Aprendizagem DLVQ: um vector médio (protótipo) é calculado para cada classe e armazenado num módulo oculto (recentemente criado). A rede é então utilizada para classificar cada padrão usando o protótipo mais próximo. Se um padrão for mal classificado como classe y em vez da classe x, o protótipo classe y é afastado do padrão e o protótipo classe x é movido em direcção ao padrão.Este procedimento é repetido iterativamente até que não haja mais mudanças na classificação. Em seguida, novos protótipos são introduzidos na rede para cada classe como novas unidades ocultas e inicializados pelo vetor médio de modelos mal classificados nessa classe.
Arquitetura de rede: a rede tem apenas uma camada oculta contendo uma unidade para cada protótipo. Os protótipos/unidades ocultas também são chamados de vetores de livro de código. Como o SNNS gera unidades automaticamente e não requer uma especificação prévia do número de unidades, o procedimento no SNNS é chamado LVQ dinâmico .
As funções de inicialização, aprendizagem e actualização por defeito são as únicas adequadas para este tipo de rede. Os três parâmetros da função de aprendizagem definem duas taxas de aprendizagem (para casos classificados correcta / incorrectamente) e o número de ciclos para os quais a rede é treinada antes de calcular os vectores médios.
Referências
Kohonen, T. (1988), Auto-organização e memória associativa, Vol. 8, Springer-Verlag.
=========================================================
Meu, eu li este LVQ, é igual ao Kohonen (SOM) mas com um professor.
https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=The%20Learning%20Vector%20Quantization%20algorithm,those%20instances%20should%20look%20like.
Quem resolveu a questão da quantificação de uma faixa numérica com referência ao alvo? No meu caso é uma "quantização" não uniforme - um processo de auto-ajuste ao alvo com um limite de dígitos mínimos no intervalo ou a própria janela em expressão numérica - ainda não decidido.
Experiências com CatBoost mostram que a quantização fortemente (em alguns casos até 15% acurasi) afeta o resultado.
Quem resolveu a questão da quantificação de uma faixa numérica com referência ao alvo? No meu caso é uma "quantização" não uniforme - um processo de auto-ajuste ao alvo com um limite de dígitos mínimos no intervalo ou a própria janela em expressão numérica - ainda não decidido.
Experimentos com CatBoost mostram que a quantização fortemente (até 15% acurasi em alguns casos) afeta o resultado.
https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html
pacote para discretização (quantização) em relação ao alvo