Aprendizado de máquina no trading: teoria, prática, negociação e não só - página 1271
Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Para o mercado, ele é treinado exatamente da mesma forma, porque a tecnologia é a mesma. Esqueça a "influência", ela não é explicitamente ensinada da forma como você a imagina. Existem conjuntos de estratégias, estratégias óptimas, etc. (em RL são chamadas políticas).
Se tivéssemos um criador de bot, poderíamos fazer-lhe uma série de perguntas e ficar muito surpreendidos com as respostas. Todos esses RLs são bons em aprender influências ambientais estacionárias, mas se você estiver jogando contra outro jogador, então RL nu não vai funcionar aqui. Eu não estudei esta área em profundidade, pode estar enganado. Mas há uma clara interação com o ambiente em mudança, você não pode ver do comportamento dos bots, não há expectativa de nada, você não pode ver nada, há um controle de probabilidade de causar danos tanto para você quanto para seu oponente, e há erros de cálculo simplesmente e agir no sentido de menos possibilidade de resultado negativo, mas não é a probabilidade dada pela política no início do jogo - é a influência sobre o ambiente em mudança.
Olá a todos. Desde que estabelecemos que TODOS aqui são bastante inteligentes e isto não é um sarcasmo, mas uma afirmação de facto. O campo da EM não falta em inteligência, por isso tenho uma pergunta para a comunidade. Alguém já administrou UBUNTU? Estou a falar de administração. O problema é este. Durante a otimização, este processo é executado tantas vezes quanto há núcleos no sistema e os paralela.
Pergunta: é possível forçar 2 ou 4 núcleos para servir um processo não divisível? Bem, isso sou só eu... talvez alguém saiba disso...
O Google está trabalhando hoje
https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/
OK, ontem voltei a ter uma discussão fútil.
O Google está trabalhando hoje
https://deepmind.com/blog/alphastar-mastering-real-time-strategy-game-starcraft-ii/
OK, ontem voltei a ter uma discussão fútil.
Note que, no gráfico de expectativa do resultado da batalha, há exatamente a probabilidade que eu estava falando - situacional, que ativa o feedback dos neurônios. Você pode ver claramente como essa probabilidade muda à medida que ambos os lados escoam e perdem unidades - ou seja, há um recálculo constante do equilíbrio de poder e das expectativas de cada um. Esta não é, claramente, uma variante clássica do RL.
Nota no gráfico de expectativa de batalha, há exatamente a probabilidade que eu estava falando - a probabilidade situacional que ativa o feedback dos neurônios. Você pode ver claramente como essa probabilidade muda à medida que ambos os lados escoam e perdem unidades - ou seja, há um recálculo constante do equilíbrio de poder e das expectativas de cada um. Esta não é, claramente, uma variante clássica do RL.
Então és tão desajeitado, pensei que era isso que te estava a tentar dizer :D
Leia também sobre o equilíbrio de Nash no link, ontem descrevi o algoritmo 1 em 1, sem sequer ler
a questão é que o jogo não tem estimativa de probabilidade e o jogo tem EFICIÊNCIA :)) volta atrás e lê o teu post
O óbvio é um clássico RL LOL profundo, pára de dizer disparates quando não estás a falar do assunto
Então você é tão desajeitado que eu pensei que era isso que eu estava tentando explicar para você :D
li também sobre o equilíbrio de Nash no link, ontem descrevi o algoritmo 1 em 1, sem sequer o ler
a questão é que o jogo não tem estimativa de probabilidade e o jogo tem EFICIÊNCIA :)) volta atrás e lê o teu post
A única coisa que você vê é um clássico RL LOL profundo, pare de falar bobagens quando não está no assunto.
Este é um fórum para negociação, sistemas de negociação automatizados e teste de estratégias de negociação.
Sempre estive interessado em negociar no mercado Forex e estou convencido de que esta é a melhor maneira de ensinar a aprendizagem da máquina.
Aleksey Vyazmikin, 2019.01.25 17:15
Eu vejo de forma ligeiramente diferente, no brinquedo há convencionalmente uma avaliação matemática de cada lado que consiste em muitos fatores - o número de bots e seu potencial, ativos, dinheiro e o objetivo do oponente de diminuir esse número de avaliação de forma a manter seu número de avaliação mais alto que o do oponente, ou seja, gastar menos energia no resultado. Isto resulta num sistema mutuamente influente, onde é claro que ao sacrificar uma unidade você vai diminuir o valor estimado do ativo do oponente em mais do que o valor estimado da unidade, então esta é a decisão certa, e se não, então não é a decisão certa. E no comércio não temos garantias, apenas probabilidades, mas num brinquedo há garantias matemáticas que podem ser calculadas.
Não podemos influenciar a situação, mas no jogo podemos, inclusive criando situações vantajosas nós mesmos.Fórum sobre negociação, sistemas de negociação automatizados e teste de estratégias de negociação
Aprendizagem da máquina no comércio: teoria e prática (comércio e não só)
Aleksey Vyazmikin, 2019.01.26 00:06
Se tivéssemos um criador de bot, poderíamos fazer-lhe uma série de perguntas e ficaríamos muito surpreendidos com as respostas. Todos estes RLs são bons a aprender factores de influência estacionários no ambiente, mas se estás a jogar contra outro jogador, então RL nu não vai funcionar aqui. Eu não estudei esta área em profundidade, pode estar enganado. Mas há uma clara interação com o ambiente em mudança, você não pode ver pelo comportamento dos bots que há uma expectativa de nada, você não pode ver nada, há um controle de probabilidade de causar danos a você e ao seu oponente, e há erros de cálculo simplesmente e agindo para uma probabilidade menor de um resultado negativo, mas essa não é a probabilidade dada pela política no início do jogo - é o efeito sobre o ambiente em mudança.