Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 563
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
ughh... li todo o fio desde o início até à minha aparência... agora já vi de tudo
mas nenhum graal lá... pena, vai continuar a cavar então
Esta é uma solução correcta. A teoria NS aqui no fórum está longe de ser a ideal.
a única coisa que escrevi foi sobre o classificador ternário, e resolver o mistério deYuriy Asaulenko
Esta é a decisão certa. A teoria NS aqui no fórum está longe de ser a ideal.
A única coisa que escrevi foi sobre o classificador ternário e a resolução do mistério deYuriy Asaulenko.
A única coisa que escrevi foi sobre o classificador ternário, e resolver o mistériode Yuriy Asaulenko.
E onde encontraste o mistério.
O MLP é de ~60 neurónios. O algoritmo é o BP padrão. Aprender - ir para cá e para lá, ou seja, não sei o que NS está aprendendo lá. Além disso, todos os princípios de aprendizagem estão delineados nas monografias clássicas - Heikin, Bispo. Suave não é MQL.
Os princípios básicos são apresentados neste tópico.
E onde encontraste o mistério.
O MLP é de ~60 neurónios. Algoritmo - BP padrão. Aprender - ir onde não sei onde. Ou seja, não sei o que a NS está aprendendo lá. Além disso, todos os princípios de aprendizagem estão delineados nas monografias clássicas - Heikin, Bispo. Suave não é MQL.
Os princípios básicos estão delineados neste tópico.
Isto foi uma espécie de brincadeira :))
isso foi uma espécie de piada :))
Não. Não há mesmo mais nada lá. Você acha que Haykin e Bishop estão desesperadamente ultrapassados e procuram por algo novo. Eles são suficientes para mim.
Não, é como se eu estivesse a brincar... tu és o único na linha que acabou por inventar alguma coisa :)
você precisa ir ao google perceptron usando o método monte carlo.
Em geral, este método é muito semelhante ao RL (reforço da aprendizagem) quando existe um agente de aprendizagem e o NS está aprendendo a encontrar a melhor solução.
É assim que o Alpha Go é treinado (embora anteriormente se pensasse que era um jogo criativo e que uma máquina não conseguia vencer um humano nele)
e aqui está o vencedor.
https://techfusion.ru/nejroset-alphago-pereveli-na-samoobuchenie/
Não, é como se eu estivesse a brincar... tu és o único na linha que acabou por inventar alguma coisa :)
você precisa ir ao google perceptron usando o método monte carlo.
Em geral, este método é muito semelhante ao RL (reforço da aprendizagem) quando você tem um agente de aprendizagem e o NS está aprendendo a encontrar a melhor solução
A propósito, é em grande parte graças a ti. Quando comecei, foi você que me deu o link para o artigo do Reshetov. Em geral o artigo não vale nada, mais como um exemplo de aplicação, mas ficou mais ou menos claro onde aproveitar o cavalo.
Não sei se existem tais métodos no Google, pois eu mesmo acabei por vir para Monte Carlo.
Também não conheço o RL, mas pela sua breve descrição parece ser o meu método.
Encontrei Monte Carlo no Google -https://logic.pdmi.ras.ru/~sergey/teaching/mlbayes/08-neural.pdf Só que isto é bem diferente.